AI Act Aprobat: Ce Înseamnă pentru Inovație și Securitatea Digitală
Consiliul UE a aprobat Legea privind Inteligența Artificială (AI Act), prima reglementare completă privind IA din lume.
Această legislație stabilește norme uniforme pentru utilizarea sistemelor de IA în Uniune, utilizând o abordare bazată pe risc.
Procesul legislativ al AI Act a suferit o întârziere în decembrie 2022, în urma introducerii ChatGPT.
Prin urmare, proiectul de text a fost revizuit pentru a include norme specifice pentru IA generativă. Se prevede că legea va fi finalizată și votată în cursul unei sesiuni plenare programate pentru 10 și 11 aprilie 2024.
Iată punctele principale:
1. Definiție Extinsă a IA: Focus pe Autonomie și Adaptabilitate în Medii Fizice și Virtuale
Domeniul de aplicare al sistemelor de inteligență artificială a fost definit pe larg, concentrându-se pe autonomie și capacitatea de adaptare.
Definiția cuprinde orice sistem bazat pe mașină care demonstrează diverse niveluri de autonomie, se poate adapta după implementare și influențează medii fizice sau virtuale.
2. Există o listă închisă de practici de IA interzise, printre care:
Utilizarea tehnicilor subliminale sau manipulative pentru a distorsiona semnificativ comportamentul.
Exploatarea vulnerabilităților indivizilor sau grupurilor, provocând daune grave.
Sisteme de clasificare biometrică care clasifică persoanele pe baza informațiilor sensibile, cu excepția scopurilor de aplicare a legii.
Sisteme de punctaj social.
Sisteme de identificare biometrică de la distanță în timp real utilizate în spații publice pentru forțele de ordine.
Poliție predictivă bazată exclusiv pe profilare sau trăsături de personalitate, cu excepția cazului în care sprijină evaluări umane bazate pe fapte obiective legate de criminalitate.
Baze de date de recunoaștere facială create prin colectare nețintită.
Inferarea emoțiilor la locul de muncă sau în instituțiile de învățământ, cu excepția motivelor medicale sau de securitate.
Legea introduce o dublă definiție a sistemelor de IA cu risc ridicat, clasificându-le în două categorii:
Inteligența artificială destinată a fi utilizată ca produs sau componentă de securitate reglementată de o legislație specifică a UE.
3. Dublă definiție a sistemelor de inteligență artificială cu risc ridicat
O parte importantă a legii privind inteligența artificială prevede o reglementare riguroasă și extinsă a sistemelor de inteligență artificială cu risc ridicat.
În practică, va fi de maximă importanță pentru o companie implicată în sectorul inteligenței artificiale să determine dacă sistemul de inteligență artificială pe care îl dezvoltă, importă, distribuie sau utilizează constituie un sistem de inteligență artificială cu risc ridicat.
Legea privind AI consideră două tipuri de sisteme de IA ca fiind cu risc ridicat:
Inteligența artificială destinată a fi utilizată ca produs (sau componentă de securitate a unui produs) reglementat de o normativă specifică a UE, cum ar fi aviația civilă, securitatea vehiculelor, echipamentele maritime, jucăriile, ascensoarele, echipamentele sub presiune și echipamentele individuale de protecție.
Sisteme de IA enumerate în anexa III, cum ar fi sistemele de identificare biometrică de la distanță, IA utilizată ca componentă de securitate în infrastructurile critice și IA utilizată în educație, ocuparea forței de muncă, punctajul de credit, aplicarea legii, migrație și procesul democratic.
Ne putem aștepta la linii directoare care să specifice implementarea practică a clasificării sistemelor de IA, completate de o listă completă de exemple practice de cazuri de utilizare cu risc ridicat și fără risc ridicat pentru sistemele de IA, în termen de cel mult 18 luni de la intrarea în vigoare a legii privind IA.
4. Există o excepție importantă pentru a doua categorie de sisteme de IA cu risc ridicat.
Dacă sistemul este proiectat să efectueze o sarcină procedurală limitată, să îmbunătățească rezultatele activităților umane anterioare sau să detecteze modele decizionale fără a înlocui evaluarea umană, nu va fi considerat cu risc ridicat.
5. Furnizorii de sisteme de IA cu risc ridicat trebuie să garanteze că sistemele lor sunt fiabile, transparente și responsabile.
Aceștia sunt responsabili să efectueze evaluări ale riscului, să utilizeze date de înaltă calitate, să documenteze alegerile proprii, să păstreze evidențele sistemului, să informeze utilizatorii, să permită supravegherea umană și să garanteze acuratețe, robustețe și securitate informatică.
6. Obligațiile se extind de-a lungul întregului lanț valoric, inclusiv „importatorii", „distribuitorii" și „operatorii" sistemelor de IA cu risc ridicat.
Importatorii și distribuitorii trebuie să verifice conformitatea acestor sisteme. Operatorii sunt obligați să respecte instrucțiunile furnizorului și să garanteze supravegherea și intervenția umană.
7. Necesitatea Evaluărilor de Impact asupra Drepturilor Fundamentale pentru Implementarea Sistemelor de IA cu Risc Ridicat în Sectorul Public și Privat
Entitățile din sectorul public și entitățile private care furnizează servicii publice sunt obligate să efectueze o evaluare de impact asupra drepturilor fundamentale înainte de a implementa sisteme de IA cu risc ridicat.
Această evaluare privește riscurile, măsurile de supraveghere, persoanele afectate și frecvența de utilizare.
8. Responsabilitatea de-a lungul lanțului valoric poate fi modificată.
Dacă o entitate diferită de furnizor modifică sistemul de IA sau îi schimbă scopul prevăzut, făcându-l cu risc ridicat, poate fi considerată furnizor și supusă obligațiilor asociate.
9. Sisteme de IA cu risc ridicat
Pentru sistemele de IA cu risc ridicat, persoanele au dreptul la o explicație privind rolul sistemului în procesele decizionale.
Aceasta ar putea genera conflicte cu furnizorii care protejează secretele comerciale.
10. Dreptul persoanelor
Persoanele au un drept larg de a raporta potențiale încălcări ale legii privind AI autorităților de supraveghere a pieței, fără obligația de a-și demonstra legitimitatea.
11. Modelele General Purpose AI (GPAI) sunt reglementate separat.
Modelele GPAI care prezintă riscuri sistemice implică obligații suplimentare, cum ar fi efectuarea de evaluări ale modelelor și rezolvarea problemelor de securitate informatică.
12. Obligații de Transparență și Etichetare pentru Sistemele de IA și Modelele GPAI în Interacțiunea Om-Mașină și Generarea de Conținut Sintetic
Anumite sisteme de inteligență artificială și modele GPAI sunt supuse unor obligații speciale de transparență, inclusiv sistemele destinate să interacționeze cu oamenii și cele care generează conținut sintetic.
În aceste cazuri, utilizatorii trebuie informați și ar putea fi necesară etichetarea conținutului ca generat artificial.
13. Structura de Guvernanță și Rolurile în Aplicarea Legii privind AI: Biroul AI, Autoritățile Naționale și de Supraveghere a Pieței
Legea privind AI este asociată cu o structură complexă de guvernanță care implică mai multe entități, cum ar fi Biroul AI, autoritățile naționale competente și autoritățile de supraveghere a pieței.
Aceste organisme vor face respectate regulile, vor examina plângerile și vor impune sancțiuni.
14. Sancțiuni Consistente pentru Neconformitate în IA: Amenzi de până la 35 de Milioane de Euro sau 7% din Cifra de Afaceri Globală
Sancțiunile pentru neconformitate sunt semnificative și ajung până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală a companiei. Pentru sistemele de IA cu risc ridicat, sancțiunea poate ajunge la 15 milioane de euro sau 3% din cifra de afaceri.
15. AI Act și Integrarea sa cu Legile Existente privind Proprietatea Intelectuală, Protecția Datelor și Securitatea Informatică
AI Act va fi aplicat împreună cu alte legi și reglementări care reglementează IA, inclusiv cele referitoare la proprietatea intelectuală, protecția datelor, contractele și securitatea informatică.
Legea privind AI ar trebui publicată la mijlocul anului 2024, cu termene de conformitate variabile.
În timp ce normele privind practicile interzise de IA vor intra în vigoare după șase luni, majoritatea celorlalte obligații vor intra în vigoare după 24 de luni.
Între timp, normele pentru sistemele de IA cu risc ridicat vor fi introduse după 36 de luni, în timp ce cele pentru sistemele cu risc ridicat utilizate de autoritățile publice vor intra în vigoare după 48 de luni.
