« Secţiuni « Arii de practică « BusinessProtectiveLitigation
Dreptul Uniunii Europene
DezbateriCărţiProfesionişti
 

Comisia Europeană. Noi norme pentru inteligența artificială. UPDATE: Autoritatea Europeană pentru Protecția Datelor: este necesară interzicerea identificării biometrice la distanță în spațiul public
26.04.2021 | JURIDICE.ro

JURIDICE - In Law We Trust ZRVP

Vineri, 23 aprilie 2021, Autoritatea Europeană pentru Protecția Datelor a informat că salută și sprijină conducerea Uniunii Europene în vederea asigurării faptului că soluțiile AI sunt conturate în conformitate cu valorile și principiile juridice ale UE, potrivit unui comunicat.

Autoritatea Europeană pentru Protecția Datelor a declarat că regretă faptul că CE nu a ținut seama de solicitarea sa anterioară de a interzice recunoașterea facială în spațiile publice.

Autoritatea Europeană pentru Protecția Datelor va continua să susțină o abordare mai strictă a recunoașterii automatizate în spațiile publice a caracteristicilor umane – cum ar fi fețe, amprente, ADN, voce, și alte semnale biometrice sau comportamentale – fie că acestea sunt utilizate într-un context comercial sau administrativ, fie în scopul aplicării legii. Este necesară o abordare mai strictă, având în vedere faptul că identificarea biometrică la distanță, în cazul căreia AI poate contribui la evoluții fără precedent, prezintă riscuri extrem de mari de intruziune profundă și non-democratică în viața privată a persoanelor fizice.

Autoritatea Europeană pentru Protecția Datelor va efectua o analiză meticuloasă și cuprinzătoare a propunerii Comisiei de sprijinire a legiuitorilor UE în consolidarea protecției persoanelor fizice și a societății în general. În acest context, AEPD se va concentra în special asupra stabilirii unor limite precise pentru instrumentele și sistemele respective care pot prezenta riscuri pentru drepturile fundamentale la protecția datelor și la viața privată.

***

Miercuri, 21 aprilie 2021, Comisia Europeană a adoptat noi norme pentru inteligența artificială, potrivit unui comunicat.

Margrethe Vestager, vicepreședinta executivă pentru o Europă pregătită pentru era digitală: „În ceea ce privește inteligența artificială, încrederea constituie o necesitate absolută, nu un element opțional. Odată cu adoptarea acestor norme de referință, UE va impulsiona elaborarea unor noi reguli la nivel mondial care să asigure că inteligența artificială este de încredere. Prin definirea standardelor, putem să deschidem calea către o tehnologie etică în întreaga lume și să ne asigurăm că UE își menține competitivitatea pe termen lung. Adaptate exigențelor viitorului și favorabile inovării, normele noastre vor interveni în cazurile în care este strict necesar: atunci când sunt în joc siguranța și drepturile fundamentale ale cetățenilor UE.”

Datorită noului Regulament privind IA, europenii vor putea avea încredere în oportunitățile pe care le oferă IA. Normele proporționale și flexibile vor aborda riscurile specifice pe care le prezintă sistemele de IA și vor stabili cele mai înalte standarde pe plan mondial. Planul coordonat prezintă schimbările de politică și investițiile necesare la nivelul statelor membre pentru a consolida poziția de lider a Europei în dezvoltarea unei IA centrate pe factorul uman, durabile, sigure, favorabile incluziunii și de încredere.

Noile norme vor fi aplicate direct în același mod în toate statele membre, pe baza unei definiții a IA adaptate exigențelor viitorului, și urmează o abordare bazată pe riscuri:

Risc inacceptabil: Vor fi interzise sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor. Printre acestea se numără sistemele sau aplicațiile de IA care manipulează comportamentul uman pentru a împiedica utilizatorii să își exercite liberul arbitru (de exemplu, jucării care utilizează asistența vocală încurajând un comportament periculos din partea minorilor) și sistemele care permit guvernelor să efectueze o evaluare a comportamentului social („social scoring”).

Risc ridicat: Sunt considerate ca prezentând un grad ridicat de risc sistemele în care tehnologia IA este utilizată în:

infrastructurile critice (de exemplu, transporturile), care ar putea pune în pericol viața și sănătatea cetățenilor;

formarea educațională sau profesională, care poate determina accesul la educație și traiectoria profesională a unei persoane (de exemplu, sistemul de notare utilizat în cadrul examenelor);

componentele de siguranță ale produselor (de exemplu, o aplicație a IA utilizată în chirurgia robotică);

ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de selecție a CV-urilor pentru procedurile de recrutare);

serviciile publice și private esențiale (de exemplu, evaluarea bonității care îi împiedică pe cetățeni să aibă posibilitatea de a obține un împrumut);

activitatea de asigurare a respectării legii care poate aduce atingere drepturilor fundamentale ale cetățenilor (de exemplu, evaluarea fiabilității probelor);

gestionarea migrației, a azilului și a controlului la frontiere (de exemplu, verificarea autenticității documentelor de călătorie);

administrarea justiției și procesele democratice (de exemplu, aplicarea legii în cazul unui set concret de date factuale).

Înainte de a putea fi introduse pe piață, sistemele de IA care prezintă un grad ridicat de risc vor face obiectul unor obligații stricte, astfel încât să se asigure următoarele:

sisteme adecvate de evaluare și reducere a riscurilor;

calitatea ridicată a seturilor de date care alimentează sistemul, pentru a se reduce la minimum riscurile și rezultatele discriminatorii;

înregistrarea activității pentru a asigura trasabilitatea rezultatelor;

documentația detaliată care să furnizeze toate informațiile necesare privind sistemul și scopul acestuia, pentru ca autoritățile să poată evalua conformitatea sistemului în cauză;

informații clare și adecvate pentru utilizatori;

– măsuri care să garanteze o supraveghere umană corespunzătoare, în vederea reducerii la minimum a riscului;

– un nivel ridicat de robustețe, securitate și precizie.

În special, se consideră că toate sistemele de identificare biometrică la distanță prezintă un grad ridicat de risc și fac obiectul unor cerințe stricte. În principiu, este interzisă utilizarea lor în timp real în spații accesibile publicului în scopuri de asigurare a respectării legii. Sunt prevăzute câteva excepții limitate, strict definite și reglementate (cum ar fi utilizarea în cazurile în care este strict necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a detecta, a localiza, a identifica sau a urmări în justiție persoane care au comis ori sunt suspectate că au comis infracțiuni grave). O astfel de utilizare este condiționată de obținerea unei autorizații din partea unui organism judiciar sau a unui alt organism independent și de termene adecvate, de acoperirea geografică și de bazele de date în care se efectuează căutări.

Risc limitat, și anume sistemele de IA care fac obiectul unor obligații specifice în materie de transparență: Atunci când utilizează sisteme de IA, cum ar fi roboții de chat, utilizatorii ar trebui să fie conștienți de faptul că interacționează cu un aparat, astfel încât să aibă posibilitatea de a lua o decizie în cunoștință de cauză: fie să folosească în continuare respectivul sistem de IA, fie să renunțe la serviciile acestuia.

Risc minim: Propunerea legislativă permite utilizarea gratuită a unor aplicații cum ar fi jocurile video bazate pe IA sau filtrele antispam. Marea majoritate a sistemelor de IA se încadrează în această categorie. Proiectul de regulament nu intervine aici, întrucât aceste sisteme de IA prezintă doar un grad de risc minim sau nu prezintă niciun risc pentru drepturile sau siguranța cetățenilor.

:: Propunerea de regulament

 
Secţiuni: Cyberlaw, Data protection, Dreptul Uniunii Europene, Internațional, VIDEO | Toate secţiunile
Cuvinte cheie: , ,
Vă invităm să publicaţi şi dvs., chiar şi opinii cu care nu suntem de acord. JURIDICE.ro este o platformă de exprimare. Publicarea nu semnifică asumarea de către noi a mesajului. Totuşi, vă rugăm să vă familiarizaţi cu obiectivele şi valorile Societătii de Stiinţe Juridice, despre care puteti ciţi aici. Pentru a publica vă rugăm să citiţi Condiţiile de publicare, Politica privind protecţia datelor cu caracter personal şi să ne scrieţi la adresa de e-mail redactie@juridice.ro!

Lex Discipulo Laus
Gratuit pentru studenţi
Securitatea electronică este importantă pentru avocaţi
Mesaj de conştientizare susţinut de FORTINET
JURIDICE utilizează SmartBill
Concurs eseuri ZRVP

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Important: Descurajăm publicarea de comentarii defăimatoare. Vor fi validate doar comentariile care respectă Politica JURIDICE.ro şi Condiţiile de publicare.


.
PLATINUM Signature      

PLATINUM  ACADEMIC

GOLD                        

VIDEO   STANDARD