Domeniul inteligenței artificiale aduce schimbări numeroase și rapide, oferind oportunități inovatoare, dar și provocări ce necesită reglementare și responsabilitate.

În cursul zilei de joi, 13 februarie, a avut loc Conferința „Quo Vadis 2025!” – Ediția a VII-a, Tendințe viitoare: Inteligența Artificială în Asigurări, organizată de Fundația Institutul de Studii Financiare și trustul de presă DC Media Group.

Evenimentul poate fi vizionat pe paginile de Facebook și canalele de Youtube ale DC News TV, DC News, DC Business.

Secretarul Comisiei pentru Tehnologia Informației și Comunicațiilor din Camera Deputaților, George Mădălin Borș, a explicat motivele pentru care Inteligența Artificială trebuie reglementată legal.

Acesta a subliniat necesitatea reglementării domeniului prin prezentarea unor exemple concrete despre riscurile pe care le poate genera utilizarea necontrolată a acestei tehnologii. Prin clasificarea sistemelor IA în funcție de riscuri, Comisia Europeană încearcă să asigure o utilizare sigură și etică, prevenind consecințele negative asupra societății.

Comisia a elaborat și adoptat Regulamentul 1689/2024 pentru a reglementa utilizarea inteligenței artificiale, asigurând un cadru legal care să prevină riscurile și să promoveze o dezvoltare responsabilă a acestei tehnologii.

„După cum știm cu toții, IA este un domeniu cu o dezvoltare rapidă și cu un potențial uriaș de a dezvolta industriile și implicit de a îmbunătăți viața oamenilor.

În acest context, UE a adopat primul cadrul juridic din lume pentru reglementarea acestei tehnologii – Regulamentul 1689/2024. Această lege a fost propusă de Comisia Europeană în aprilie 2021 și ratificată de statele membre în februarie 2024. Un obiectiv foarte clar este promovarea utilizării IA într-un mod sigur, etic și centrat pe om.

Aș vrea să vă dau câteva exemple despre nevoia de a reglementa acest sector al IA. În urmă cu câțiva ani, o mare companie producătoare de software a lansat un produs, un chatbot, care a fost antrenat să interacționeze cu o rețea de social media, Twitter, și pus să interacționeze cu utilizatorii, în numele acelei companii.

Acelui chatbot i-au fost necesare doar șapte minute pentru a deveni rasist. După câteva ore de funcționare, a început să nege Holocaustul și să facă apologia nazismului. După 24 de ore, acesta a fost închis. Mai există niște centre de wellbeing din SUA care s-au gândit că e o idee bună să folosească același chatbot în interacțiunea cu persoanele care au anxietăți.

După câteva zile de funcționare, acele mașini au tras concluzia este mai bine să recomande metode de suicid, culmea, chiar persoanelor care aveau nevoie de un sfat. De a se proteja, de a găsi un alt răspuns decât cel oferit de chatbot. De aici, în primul rând, derivă nevoia găsirii unei reglementări a acestui spațiu. Când e vorba de software, sky is the limit! Doar imaginația umană e cea care ne limitează activitatea.” – George Borș.

Clasificarea riscurilor asociate utilizării IA, în Regulamentul UE. Amenzi care ajung până la 30 de milioane de euro

Secretarul George Borș a prezentat și clasificarea realizată de Comisia Europeană în vederea riscurilor asociate cu evoluția Inteligenței Artificiale. El a menționat, totodată, suma la care pot ajunge amenzile în cazul încălcării legii: până la 30 de milioane de euro sau 6% din cifra de afaceri.

„În urma analizei acestei ramuri a industriei software, Comisia Europeană a clasificat sistemele IA în funcție de riscurile pe care le prezintă. Au fost activate patru categorii de riscuri, fiecare având capitole marginale, după cum urmează: risc inacceptabil1: utilizarea tehnicilor subliminale, fără ca persoanele să fie conștiente de acest lucru, pentru a denatura semnificativ comportamentul unei persoane într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane. Regulamentul interzice folosirea IA într-astfel de scopuri.

2: exploatarea vulnerabilităților unui anumit grup de persoane. Este interzisă folosirea IA în acest scop. 3: evaluarea comportamentului social de către autorități publice. Clasificarea credibilității persoanelor fizice într-o anumită perioadă, pe baza comportamentului lor social sau a caracteristicilor personale, de personalitate cunoscute sau preconizate. Regulamentul interzice folosirea IA în astfel de evaluări comportamentale.

4: utilizarea sistemelor de identificare biometrică la distanță, în timp real. Este prevăzut, în textul legii, că pentru a avea un efect preventiv, amenzile prevăzute pentru acest risc sunt semnificative. Ele pot ajunge până la 30 de milioane de euro sau 6% din cifra de afaceri a utilizatorului de IA.

Al doilea capitol mare se referă la risc ridicat: Regulamentul prevede o listă de 8 domenii de utilizare a sistemelor IA: identificarea biometrică, clasificarea persoanelor fizice, gestionarea și exploatarea infrastructurilor critice, educație și formare profesională, ocuparea forței de muncă, accesul la servicii esențiale și la servicii beneficii publice, aplicarea legii, gestionarea migrației, a azilului și al controlului la frontiere, administrația justiției și procesele democratice.

Practic, Regulamentul spune că se poate folosi IA, dar acest produs software trebuie să fie supus unei cerințe stricte de evaluare, testare, monitorizare permanentă înainte și în timpul utilizării acestuia.

Al treilea capitol este riscul limitat: Aici intervin chatboții, asistenți virtuali care interacționează cu utilizatorii, sisteme de IA generativ, precum modele de mare limbaj, ChatGPT, Gemini, OpenAI, sisteme care generează sau manipulează conținut, inclusiv deepfake. Scopul acestor cerințe este cel de a preveni riscurile de manipulare și a asigura faptul că utilizatorii sunt conștienți în interacțiunea cu IA. – George Mădălin Borș.

Totodată, secretarul George Borș a subliniat faptul că România a adoptat Strategia Națională pentru IA 2024-2027, având astfel oportunitatea de a deveni un lider în domeniul inteligenței artificiale și de a contribui semnificativ la tranziția către o economie bazată pe cunoaștere.

„În ceea ce privește guvernanța și supravegherea implementării, a fost înființat în 2024 Oficiul European pentru IA, menit să supravegheze aplicarea reglementării. Statele membre au obligația să înființeze autorități naționale de supraveghere. În România, a fost adoptată Strategia Națională pentru IA 2024-2027, care stabilește un cadru strategic pentru dezvoltarea și implementarea IA în sectoarele-cheie.

De asemenea, se pune un accent deosebit pe standardizarea și reglementarea tehnologiilor IA pentru a asigura conformitatea cu reglementarea europeană.

În ceea ce privește sectorul asigurărilor, IA joacă rolul tot mai important. Aplicațiile IA pot automatiza gestionarea celor de despăgubire, analiza datelor sau poate prezice riscuri și personaliza polițe de asigurare. Totuși, în acest domeniu, IA trebuie urmărit cu mare atenție având în vedere riscurile asociate cu prelucrarea datelor cu caracter personal.

Este esențial ca sistemele IA cu risc ridicat să fie supuse unui control riguros care să asigure transparența, responsabilitatea și respectarea drepturilor omului.

România are șansa de a deveni un lider în domeniul IA prin implementarea strategiei naționale pentru Inteligență Artificială, care va contribui la tranziția către o economie bazată pe cunoaștere.”, a conchis George Borș.