Categorii de risc în AI Act: de la inacceptabil la minim
Clasificarea riscurilor generate de inteligența artificială este esențială pentru a proteja drepturile fundamentale ale cetățenilor europeni. AI Act introduce un sistem clar de clasificare, pe baza impactului potențial asupra individului și a societății. Aceste categorii sunt:
- Risc inacceptabil: Include sisteme care amenință valoarea demnității umane sau alte drepturi fundamentale. Exemple sunt sistemele de manipulare comportamentală sau scor social obligatoriu.
- Risc ridicat: Se referă la aplicații cu potențial serios de prejudiciu, cum sunt sistemele folosite în domenii precum recrutare, educație, justiție, infrastructură critică și supraveghere biometrică. Acestea necesită cerințe stricte de transparență și control.
- Risc limitat: Reprezintă AI care prezintă riscuri moderate, cum ar fi chatbot-urile sau generatoarele de imagini. Pentru aceste sisteme este necesar ca utilizatorii să fie informați că interacționează cu o inteligență artificială.
- Risc minim: Include AI folosit în mod obișnuit, fără impact semnificativ, de exemplu filtre antispam sau recomandări de produse. Aceste aplicații nu au cerințe suplimentare.
În acest fel, regulamentul urmărește să alinieze nivelul de reglementare cu nivelul de risc.
Exemple de aplicații AI în diferite categorii de risc
Pentru a înțelege mai bine cum funcționează clasificarea, iată câteva aplicații AI și categoriile lor de risc:
- Risc inacceptabil: Sisteme AI utilizate pentru creditarea socială la scară largă sau instrumente ce manipulează subconștient comportamentul copiilor prin notificări repetitive.
- Risc ridicat: Sisteme de recunoaștere facială aplicate în spații publice pentru identificarea în timp real, algoritmi utilizați în procesele de selecție la angajare sau evaluare la examene, AI folosită în diagnosticarea medicală automată.
- Risc limitat: Asistenți virtuali conversaționali, chatbot-uri care consiliază clienți, aplicații care generează conținut vizual sau text pentru uz general.
- Risc minim: Algoritmi de filtrare a spamului din email, sisteme de recomandare pentru cumpărături online, aplicații de corectare automată a textului.
Aceste exemple ajută operatorii și utilizatorii să înțeleagă unde se încadrează soluțiile lor de AI și ce obligații au.
Interdicții și restricții privind AI cu risc ridicat
AI Act prevede interdicții stricte pentru anumite tipuri de inteligență artificială considerate de risc inacceptabil. De exemplu, utilizarea AI pentru supraveghere biometrică de masă în spații publice sau pentru „scoring social” este interzisă.
Pentru sistemele de AI cu risc ridicat, nu există interzicere totală, dar există restricții și condiții clare. Sistemele trebuie să respecte:
- Evaluări detaliate de impact asupra drepturilor fundamentale.
- Obligativitatea transparenței față de utilizatori și autorități.
- Testare riguroasă, auditări periodice, documentație clară privind funcționarea și deciziile algoritmului.
- Obligația de a implementa măsuri de corecție și control permanent.
Astfel, AI-ul cu risc ridicat se poate implementa doar cu măsuri speciale de conformitate și supraveghere, pentru a limita cât mai mult riscurile asupra cetățenilor europeni.