Cât de periculoasă poate fi inteligența artificială? Avertismentul venit din lumea medicală

Cât de periculoasă poate fi inteligența artificială? Avertismentul venit din lumea medicală

Prof. univ. dr. George Cristian Curcă, directorul INML, spune că inteligența artificială nu gândește, ci doar asociază datele oferite de oameni, motiv pentru care este nevoie de reglementări clare în domeniul medical.

 

"Inteligența artificială nu gândește, asociază doar ceea ce bifăm noi. Ați precizat bine: există un software care a fost analizat și criticat public. În sfârșit, s-a putut face asta pentru că s-a avut acces la modul său de construcție.

În domeniul medical, de exemplu, s-a bifat la „doctor”, bărbat și la „femeie”, recepționer. În 2016 a fost făcută această analiză, iar ca urmare, doctorii au fost întotdeauna bărbați, iar femeile au fost întotdeauna recepționere. Iar software-ul era unul medical.

O soluție ar fi reglementarea: construcția acestor sisteme IT împreună cu specialiști din lumea medicală, supravegheați de o autoritate națională. Este nevoie de o reglementare care să verifice modul în care sunt construiți algoritmii și să existe transparență.

Acum, nu știu cum ar putea fi făcut asta, în condițiile în care inventatorul algoritmului și al programării probabil vrea să păstreze secretul asupra modului în care a fost realizat. Nu știu cum s-ar putea face asta.

Ceea ce știu însă este că, am citit de curând, cu câteva zile înainte, că avansul cel mai puternic pe care îl înregistrează inteligența artificială nu e neapărat în domeniul medical, care are încă nevoie de activitate umană foarte multă și practică, ci în domeniul informatic.

În domeniul programării, inteligența artificială este extrem de activă și chiar agresivă. Informaticienii au ajuns sau vor ajunge, nu atât să construiască acești algoritmi, cât să evolueze spre a le face review-uri, să examineze dacă algoritmii creați de inteligența artificială sunt bine făcuți.

Aici cred că este nevoie de reglementare. Și dacă așa stau lucrurile, sau dacă software-urile vor fi construite în proporție de 90% de inteligență artificială, atunci, într-adevăr, trebuie reglementare.

Pentru că, de la început, dacă algoritmul este transparent, nu discriminează. Dar dacă creează un produs care discriminează în final și care este aplicat astfel de către medic, discriminând fără să știe că discriminează, atunci el devine un instrument care, deși este folosit în interesul pacientului, poate produce efecte nedorite.

Până la urmă, inteligența artificială crește acest nivel de competență. Adică 30% putem fi înlocuiți sau automatizați, ceea ce ne ajută să câștigăm timp și eficiență, iar în celelalte 70%, cele care sunt cu adevărat ale noastre, trebuie să devenim cât mai competenți", a explicat prof. univ. dr. George Cristian Curcă, directorul INML.