Skip to main content
Shaping Europe’s digital future

Regulamentul privind IA este primul cadru juridic privind IA, care abordează riscurile IA și poziționează Europa pentru a juca un rol de lider la nivel mondial.

Regulamentul privind IA [Regulamentul (UE) 2024/1689 de stabilire a unor norme armonizate privind inteligența artificială] este primul cadru juridic cuprinzător privind IA la nivel mondial. Scopul normelor este de a promova o IA de încredere în Europa.

Regulamentul privind IA stabilește un set clar de norme bazate pe riscuri pentru dezvoltatorii și operatorii de IA în ceea ce privește utilizările specifice ale IA. Regulamentul privind IA face parte dintr-un pachet mai amplu de măsuri de politică menite să sprijine dezvoltarea unei IA de încredere, care include, de asemenea, pachetul privind inovarea în domeniul IA, lansarea fabricilor de IA și Planul coordonat privind IA. Împreună, aceste măsuri garantează siguranța, drepturile fundamentale și IA centrată pe factorul uman și consolidează adoptarea, investițiile și inovarea în IA în întreaga UE.

Pentru a facilita tranziția către noul cadru de reglementare, Comisia a lansat Pactul privind IA, o inițiativă voluntară care urmărește să sprijine punerea în aplicare viitoare, să colaboreze cu părțile interesate și să invite furnizorii și implementatorii de IA din Europa și din afara acesteia să respecte în timp util principalele obligații prevăzute în Regulamentul privind IA. 

De ce avem nevoie de norme privind IA?

Regulamentul privind IA asigură faptul că europenii pot avea încredere în ceea ce are de oferit IA. Deși majoritatea sistemelor de IA prezintă riscuri limitate la zero și pot contribui la soluționarea multor provocări societale, anumite sisteme de IA creează riscuri pe care trebuie să le abordăm pentru a evita rezultatele nedorite.

De exemplu, adesea nu este posibil să se afle de ce un sistem de IA a luat o decizie sau o predicție și a luat o anumită măsură. Prin urmare, poate deveni dificil să se evalueze dacă o persoană a fost dezavantajată în mod inechitabil, cum ar fi într-o decizie de angajare sau într-o cerere pentru un sistem de interes public.

Deși legislația existentă oferă o anumită protecție, aceasta nu este suficientă pentru a aborda provocările specifice pe care le pot aduce sistemele de IA.

O abordare bazată pe riscuri

Regulamentul privind IA definește patru niveluri de risc pentru sistemele de IA:

piramida care prezintă cele patru niveluri de risc: Riscuri inacceptabile; cu risc ridicat; risc limitat, risc minim sau zero

Risc inacceptabil

Toate sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor sunt interzise. Regulamentul privind IA interzice opt practici, și anume:

  1. manipulare și înșelăciune dăunătoare bazate pe IA
  2. exploatarea dăunătoare a vulnerabilităților bazată pe IA
  3. punctajul social
  4. Evaluarea sau anticiparea riscurilor legate de infracțiunile individuale
  5. răzuire nedirecționată a internetului sau a materialelor CCTV pentru a crea sau a extinde bazele de date de recunoaștere facială
  6. Recunoașterea emoțiilor la locul de muncă și în instituțiile de învățământ
  7. clasificarea biometrică pentru a deduce anumite caracteristici protejate
  8. identificarea biometrică la distanță în timp real în scopul asigurării respectării legii în spațiile accesibile publicului

Risc ridicat

Cazurile de utilizare a IA care pot prezenta riscuri grave pentru sănătate, siguranță sau drepturile fundamentale sunt clasificate ca prezentând un grad ridicat de risc. Printre aceste cazuri de utilizare cu risc ridicat se numără:

  • Componentele de siguranță ale IA în infrastructurile critice (de exemplu, transporturi), a căror defectare ar putea pune în pericol viața și sănătatea cetățenilor
  • Soluții de IA utilizate în instituțiile de învățământ, care pot determina accesul la educație și parcursul vieții profesionale a unei persoane (de exemplu, notarea examenelor)
  • Componentele de siguranță ale produselor bazate pe IA (de exemplu, aplicația IA în chirurgia asistată de robot)
  • Instrumente de IA pentru ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de sortare a CV-urilor pentru recrutare)
  • Anumite cazuri de utilizare a IA utilizate pentru a oferi acces la servicii publice și private esențiale (de exemplu, notarea creditelor care le refuză cetățenilor posibilitatea de a obține un împrumut)
  • Sisteme de IA utilizate pentru identificarea biometrică la distanță, recunoașterea emoțiilor și clasificarea biometrică (de exemplu, sistemul de IA pentru identificarea retroactivă a unui hoț din magazine)
  • Cazuri de utilizare a IA în asigurarea respectării legii care pot interfera cu drepturile fundamentale ale persoanelor (de exemplu, evaluarea fiabilității probelor)
  • Cazuri de utilizare a IA în gestionarea migrației, a azilului și a controlului la frontiere (de exemplu, examinarea automată a cererilor de viză)
  • Soluții de IA utilizate în administrarea justiției și a proceselor democratice (de exemplu, soluții de IA pentru pregătirea hotărârilor judecătorești)

Sistemele de IA cu grad ridicat de risc fac obiectul unor obligații stricte înainte de a putea fi introduse pe piață:

  • sisteme adecvate de evaluare și atenuare a riscurilor
  • calitatea ridicată a seturilor de date care alimentează sistemul pentru a reduce la minimum riscurile de rezultate discriminatorii
  • înregistrarea activității pentru a asigura trasabilitatea rezultatelor
  • documentația detaliată care furnizează toate informațiile necesare privind sistemul și scopul acestuia pentru ca autoritățile să evalueze conformitatea acestuia
  • informații clare și adecvate pentru implementator
  • măsuri adecvate de supraveghere umană
  • nivel ridicat de robustețe, securitate cibernetică și precizie

Risc limitat

Aceasta se referă la riscurile asociate cu nevoia de transparență în ceea ce privește utilizarea IA. Regulamentul privind IA introduce obligații specifice de divulgare pentru a se asigura că oamenii sunt informați atunci când este necesar pentru a menține încrederea. De exemplu, atunci când se utilizează sisteme de IA, cum ar fi roboții de chat, oamenii ar trebui să fie conștienți de faptul că interacționează cu o mașină, astfel încât să poată lua o decizie în cunoștință de cauză.

În plus, furnizorii de IA generativă trebuie să se asigure că conținutul generat de IA este identificabil. În plus, anumite conținuturi generate de IA ar trebui să fie etichetate în mod clar și vizibil, și anume deepfake-urile și textul publicat cu scopul de a informa publicul cu privire la chestiuni de interes public.

Risc minim sau inexistent

Regulamentul privind IA nu introduce norme pentru IA care să fie considerate ca prezentând un risc minim sau să nu prezinte niciun risc. Marea majoritate a sistemelor de IA utilizate în prezent în UE se încadrează în această categorie. Printre acestea se numără aplicații precum jocurile video bazate pe IA sau filtrele de spam.

Cum funcționează toate acestea în practică pentru furnizorii de sisteme de IA cu grad ridicat de risc?

Cum funcționează toate acestea în practică pentru furnizorii de sisteme de IA cu grad ridicat de risc?

Proces pas cu pas pentru declarația de conformitate

Odată ce un sistem de IA este pe piață, autoritățile sunt responsabile de supravegherea pieței, implementatorii asigură supravegherea și monitorizarea umană, iar furnizorii dispun de un sistem de monitorizare ulterioară introducerii pe piață. Furnizorii și operatorii vor raporta, de asemenea, incidentele grave și disfuncționalitățile.

O soluție pentru utilizarea fiabilă a modelelor mari de IA

Modelele de IA de uz general pot îndeplini o gamă largă de sarcini și devin baza multor sisteme de IA din UE. Unele dintre aceste modele ar putea prezenta riscuri sistemice dacă sunt foarte capabile sau utilizate pe scară largă. Pentru a asigura o IA sigură și de încredere, Regulamentul privind IA instituie norme pentru furnizorii de astfel de modele. Aceasta include norme privind transparența și drepturile de autor. Pentru modelele care pot prezenta riscuri sistemice, furnizorii ar trebui să evalueze și să atenueze aceste riscuri.

Normele Regulamentului privind IA privind IA de uz general vor intra în vigoare în august 2025. Oficiul pentru IA facilitează elaborarea unui cod de bune practici pentru a detalia aceste norme. Codul ar trebui să reprezinte un instrument central prin care furnizorii să demonstreze conformitatea cu Regulamentul privind IA, încorporând practici de ultimă generație. 

Guvernanță și punere în aplicare

Oficiul European pentru IA și autoritățile statelor membre sunt responsabile de punerea în aplicare, supravegherea și asigurarea respectării Regulamentului privind IA. Comitetul pentru IA, grupul științific și forumul consultativ orientează și consiliază guvernanța Regulamentului privind IA. Aflați mai multe detalii despre guvernanța și asigurarea respectării Regulamentului privind IA.  

Etapele următoare

Regulamentul privind IA a intrat în vigoare la 1 august 2024 și va fi pe deplin aplicabil doi ani mai târziu, la 2 august 2026, cu unele excepții:

  • interdicțiile și obligațiile în materie de alfabetizare în domeniul IA au intrat în vigoare la 2 februarie 2025
  • normele de guvernanță și obligațiile pentru modelele de IA de uz general devin aplicabile la 2 august 2025
  • normele privind sistemele de IA cu grad ridicat de risc – integrate în produsele reglementate – au o perioadă de tranziție prelungită până la 2 august 2027

Ultimele știri

Conținut asociat

Imaginea de ansamblu

Abordarea UE față de centrele de inteligență artificială în ceea ce privește excelența și încrederea, cu scopul de a stimula cercetarea și capacitatea industrială, asigurând în același timp siguranța și drepturile fundamentale.

Aprofundați subiectul