Ce fel de reglementare, ce fel de etică, ce drept pentru inteligența artificială?

Se afirmă, pe bună dreptate, că tehnologia reprezintă „cheia” tuturor problemelor fundamentale ale secolului al XXI-lea și că inteligența artificială (IA) constituie, într-o atare perspectivă, noua sa frontieră, o „revoluție tehnologică inconturnabilă”, comparabilă cu electricitatea ori automobilul. Ea e prin excelență o inovație de ruptură, întrucât bulversează controlul și dobândirea de cunoștințe și afectează practic toate sectoarele de activitate umană. Mai recent, se anunță, tot pe calea acesteia, posibilitatea descoperirii de noi materiale și inventarea de noi substanțe la rândul lor revoluționare. Odată cu irumperea ChatGPT fenomenul cunoaște o accelerare spectaculoasă sub forma unei triple curse de viteză: în cadrul privat/economic cei șapte giganți care domină oligopolul tehnologiei dincolo de ocean se înfruntă pentru cucerirea și afirmarea leadership-ului lor; în plan geostrategic SUA și China au intrat și într-o confruntare acerbă pentru controlul algoritmilor; în fine, Europa, marginalizată în ceea ce privește inovarea, tinde să se impună în termeni de reglementare, odată cu intrarea în vigoare, la 7 martie a.c., a Digital Market Act, votat în iulie 2022, urmată de adoptarea la 13 martie 2024, a AI Act. Totodată, (inedita) Convenție-cadru a Consiliului Europei privind inteligența artificială, drepturile omului, democrația și statul de drept (preconizată a fi adoptată la 17 mai 2024) inaugurează cadrul juridic internațional în domeniu. În cele din urmă s-a impus și ideea unei reglementări globale, prin adoptarea, la 21 martie 2024, a primei rezoluții a Adunării Generale a ONU în materie, privind promovarea sistemelor de inteligență artificială sigure, securizate și favorabile pentru dezvoltarea durabilă.

În numai câteva luni inteligența artificială a trecut de la stadiul de dezvoltare la realitate, afirmându-se drept revoluția tehnologică cea mai puternică și mai rapidă din istorie. Difuzarea la înaltă viteză a IA a produs deja primele efecte specifice, bulversând metode de producție și de organizare a muncii, în special în sectorul serviciilor. Combinarea cu robotizarea antrenează câștiguri importante de productivitate și în capacitatea de a genera noi idei; ea influențează major progresul educației și pe cel al sănătății, precum și accelerarea proceselor reindustrializării și pe cel al tranziției ecologice. În același timp, câștigurile de productivitate în servicii au în contrapartidă gigantismul infrastructurilor și cantitățile de energie necesare, care intră în contradicție cu tranziția ecoclimatică, precum și distrugerile masive de locuri de muncă înalt calificate. Difuzarea noilor tehnologii de IA în toate componentele societăților dezvoltate este apoi indisociabilă multiplicării atacurilor cibernetice, precum amenințările asupra democrației care rezultă din dezinformare ori din ingerințele străine în procedurile electorale. În fața unor atari pericole, reglementarea IA rămâne deopotrivă indispensabilă, așa cum o demonstrează pariul pierdut de autoreglementare pentru internet și rețelele sociale, și intruvabilă. Inovația nu duce la progres per se. Ea trebuie însoțită de o reglementare adecvată și de măsuri de siguranță etice pentru a beneficia umanității. Istoria descoperirilor tehnice, de la interzicerea clonării umane la tratatele de neproliferare nucleară, trecând prin controlul sanitar al medicamentelor oferă numeroase exemple în care dezvoltarea tehnologică a fost încadrată și ghidată în numele eticii. De aceea, în fiecare sector de activitate utilizarea IA trebuie să se supună unor reguli etice clare, fie ele impuse sau autoasumate. Ea trebuie, în consecință, să se întemeieze pe un cadru mondial, deopotrivă în privința guvernanței în general, și cel al reglementării în special. Or, aceasta a devenit dificil prin implozia mondializării, decăderea instituțiilor multilaterale, confruntarea deschisă între imperiile autoritare și democrații, multiplicarea conflictelor armate și multipolarizarea accentuată.

Nevoia de reglementare ține de motivații și mize deopotrivă, și mai ales de competitivitate economică, de suveranitate, cât și de concurență normativă. Norma, indiferent de natura sa, trebuie, pe de o parte, să nu împiedice afirmarea inovației tehnologice, iar pe de alta, să evite pe cât posibil ori să minimalizeze in extremis riscurile pe care le prezintă pentru drepturile fundamentale și bazele (democratice) ale societății. Într-un sistem de reglementare juridică precum cel european, atari rațiuni sunt prevăzute adesea cu titlul de expunere de motive ale demersului legislativ antamat sau în curs de inițiere. Astfel, în adoptarea Regulamentului IA (2024) legislatorul unional-european a invocat „riscul de a vedea că viitoarele norme în materie de IA să se dezvolte în străinătate, adesea de actori nondemocratici”. De asemenea, într-o rezoluție din 3 mai 2022 Parlamentul European remarca faptul că „până în 2030 IA va trebui să contribuie la economia mondială cu peste 11.000 de miliarde de euro” și că „în același timp, tehnologiile IA riscă să reducă acțiunea umană”. În consecință, „IA s-ar impune să rămână o tehnologie centrată pe om și să nu înlocuiască autonomia umană, nici să aducă cea mai mică restrângere libertății individuale” (pct. 7)[1]. Într-o atare perspectivă revine politicului ca prin asumare democratică, pe calea reglementării să stabilească linia de echilibru între cele două aspecte fundamentale, care se pot dovedi uneori contradictorii, dar în privințe care pot fi depășite. Într-adevăr, ca în orice domeniu și cu atât mai mult în situații de ruptură precum cea generată de revoluția IA, compatibilizarea între imperativul creșterii economice și exigențele esențiale ale drepturilor indivizilor și devenirea socială în general presupun remedii negociate și structuralizate. Așa se facă că, dacă la început reflecția și acțiunea reglementară nu vizau decât un cadru de suplețe normativă, exprimat în instrumente de soft law, promovând mai ales o etică și implicând a minima juridicul, treptat orientarea generală s-a deplasat spre o mai multă normativitate de esență juridică, în primul rând la nivel european, deopotrivă cel al UE și al Consiliului Europei.

Într-adevăr, conform rațiunii sale de a fi (în primul rând normativiste) UE a optat pentru reglementare în privința inovării; la rândul său, precum orice revoluție tehnologică, IA cere o anumită reglementare. Dar Europa nu poate pretinde una extinsă, prin efectul antrenant de model și de cooperare incitantă, atunci când e exclusă din cursa inteligenței artificiale și deci de la câștigurile de productivitate care stimulează sporirea creșterii, rentabilității, capitalului și a remunerației muncii. Cele două laturi ale ecuației par indisociabile și se cuvin tratate și promovate ca atare.

Dintr-o perspectivă „tehnocrată”, apreciindu-se impactul IA mai degrabă ca o problemă de adaptare generală a societății umane și nu atât una de reglementare al cărei răspuns ar fi inadecvat în sine, se reproșează dreptului incapacitatea de a percepe așa cum se cuvine datele inteligenței artificiale, viteza scăzută de reacție și insuficiența intervenției judecătorului în soluționarea conflictelor aferente[2]. Într-o alta filosofică, protecția față de derivele IA oferită de reglementare „atâta timp cât ceea ce înțelegem prin această noțiune și măsurile luate în aceste domenii, nu sunt în nici un fel la înălțimea mizelor” ratează esențialul, e o mare iluzie, fiind vorba de o ficțiune[3]. Fiind în fața unei turnante intelectuale și creative care afectează capacitățile noastre fundamentale, soluția ar consta în aceea ca diferitele corpuri profesionale să se mobilizeze spre a defini ceea ce sunt gata să cedeze și să refuze industriei digitale, în afara căreia „ne vom trezi într-o lume în care vom fi ca străini.”[4]

1. Ce fel de etică pentru IA? În urmă cu circa nu mai puțin de 2375 ani, în a sa Etica Nicomahica (350 î.Hr.), marele Aristotel (384–322 î.Hr.) concepea etica precum o necesitate individuală, care permite atingerea fericirii prin prisma virtuții, dar și ca un imperativ colectiv, necesar pentru a accede la o societate mai echitabilă. Să ne imaginăm astăzi întoarcerea Stagiritului printre noi și pus în fața inteligenței artificiale să-și pună problema eticii acesteia. Fără îndoială, IA e una dintre cele mai mari realizări tehnice obținute vreodată, care privește întreaga lume economică și socială, dar din ecuația căreia noțiunea de etică e în mare parte absentă. Abordând subiectul, constatăm, mai întâi, că inteligența artificială și etica par ireconciliabile, cea din urmă presupunând tatonări, abordarea cazurilor morale în singularitatea lor complexă, reticentă față de reguli absolute; dimpotrivă, prima e fondată pe contururi formale și binare, tratând arareori nuanțele. Ele nu sunt totuși opuse; fără îndoială, un algoritm poate fi etic, dar pentru aceasta e necesar și suficient, totodată, să fie construit cu o preocupare și într-o perspectivă de etică! Ce ar putea fi atunci principiile cardinale ale unei IA etice? Într-un pur, dar fatalmente aproximativ răspuns, o inteligență artificială etică e, înainte de toate, una cu un impact pozitiv asupra mediului, a societății și economiei în general. Tot așa, ea e una democratică, adică înțeleasă de și accesibilă pentru toți și, nu în ultimul rând, una smerită, în condițiile în care ne oferă răspunsul cel mai probabil și unul aproape tras la sorți! Este vorba de a o despovăra de huris – acel egoism nemăsurat pe care grecii antici îl respingeau de plano, ori în acest gen de cazuri IA ar trebui să recunoască că ea nu știe și deci e de preferat aidos, virtutea dezinteresării și a modestiei. Dezvoltarea unei IA va fi miza secolului în curs și, în consecință, se impune a integra cât mai multă etică în procesele de concepție și de audit ale algoritmilor. Pentru aceasta o prioritate absolută o constituie difuzarea pe scară largă a acestei culturi a eticii, convingând toate părțile interesate de importanța și semnificațiile sale.

O reflecție etică în domeniul IA e posibilă mai ales în cadrul UE; aflată în concurență economico-tehnologică în principal cu celelalte două „imperii mondiale majore”, SUA și China, ea promovează o abordare mai axată pe etică decât pe investiții. În plus, Europa rămâne și din punct de vedere istoric primul foaier de reflecție filosofică și morală și trebuie să continue a fi și în sectorul de vârf. Totuși, „Ghidul etic al inteligenței artificiale” al Uniunii, din 2017, e considerat a se sprijini pe o concepție privind omul și mașina, în mare parte deconectată de realitate, care nu mai diferenția viul de mecanică[5]. S-au definit șapte elemente esențiale (securitate, protecția vieții private ș.a.) pentru o IA zisă etică în scopul de a face operaționale aplicațiile etice ale inteligenței artificiale. Se consideră că spre a avea IA fără prejudecăți echipele care le creează trebuie să fie multidisciplinare; ele se impun a fi compuse atât de informaticieni, cât și de persoane active în științele sociale ori umane. De asemenea, e necesară stabilirea de canale de comunicare noi între aceste echipe, care de obicei nu comunică între ele ori foarte puțin. Ideea este aceea de a conștientiza cercetătorii și dezvoltatorii informatici asupra consecințelor etice, juridice, precum și de cercetările și scrierile lor. Ei trebuie să înțeleagă că nu se poate studia și analiza totul și nici că nu poate să fie în cod. După cum nu se va putea avea o IA care să fie 100% etică, care nu discriminează pe nimeni ori niciun grup. La un moment dat, întreprinderea va trebui să aleagă între eficiența absolută a instrumentului său versus  explicabilitatea sa, să realizeze un echilibru (o pondere) între cele două elemente.

Proclamându-se neutră și refuzând să impună norme morale individului, UE se circumscrie problemei principale a epocii noastre în materie. A legifera asupra chestiunilor morale față de IA a devenit aproape imposibil astăzi, prin faptul relativismului societății noastre. Nu mai există un soclu comun, de principii universale pe care să ne sprijinim. Când nu mai știm a zice ce e omul, nu mai știm a spune nici ce e  mașina. Individul modern nu mai suportă altă ordine morală și naturală decât propria sa dorință. „Eu a devenit măsura umanității. Și deconexarea de real, legată de digital, întărește acest relativism. Suntem, în Occident, pierduți într-o rătăcire morală fără sfârșit. Trebuie reinvestită filosofia și umanitatea în acest domeniu.”[6]

Trei grupuri de probleme etice aduse în atenție, odată cu emergența în societate a inteligențelor artificiale generative sunt considerate ca principale pe fond și mai pregnante în percepția comună. Prima ține de controlul și filtrarea prejudecăților IA generative, care provin din datele utilizate pentru învățare. Urmează chestiunile etice ce rezidă în „capacitățile emergente”, respectiv cele dezvoltate pe această cale și nu au fost prevăzute ab initio, modele care pot „minți” ori inventa în anumite cazuri strategii de manipulare și de influențare ce nu au fost prevăzute în mod intenționat; această capacitate emergentă ne pregătește mult mai multe surprize pozitive, dar, totodată, generează și îngrijorări întrucât astfel se poate trece la manipularea ființelor umane de către mașini. În fine, a treia categorie de considerații etice e legată de efectele pe termen lung ale inteligenței artificiale generative asupra umanilor și a societății. E implicată, în acest sens, adaptarea la aceste transformări radicale și rapide și efectele lor asupra condiției umane. Modelele de IA generativă sunt tehnologii duale, care pot fi utilizate deopotrivă spre bine, și în sens rău.

Principalele măsuri prevăzute în textele de reglementare a domeniului reflectă această dublă orientare, cu preponderența uneia sau alteia dintre perspective. Așa se face că în timp ce documentele adoptate în cadrul UNESCO și în cel al Consiliului Europei insistă mai ales pe aspecte ținând de drepturile fundamentale, cele aferente OCDE și UE privilegiază problemele de securizare a pieței și de stimulare a inovației. Situația se explică prin misiunea, obiectul de activitate și natura structurilor respective emitente, dincolo de care se manifestă și o anumită preocupare generată de realizarea  unui echilibru și de o compatibilizare a celor două dimensiuni de preocupări. Așa cum se remarcă în analizele pertinente, dezvoltarea IA presupune încredere, iar aceasta e rezultanta echilibrului dintre piață și protecție. Fără îndoială, drepturile umane rămân un fundament comun al acțiunii autorităților interguvernamentale pentru o inteligență artificială în serviciul umanului, „human-centric”. Totodată, acestea sunt expuse unui dublu „risc de diluare” în fața utilizării noilor tehnologii, în sensul „fragilizării” formei și fondului dreptului. Referitor la formă, unele instrumente normative suple, precum recomandările, liniile directoare etc., înscrise în logica unei promovări de autoreglementare a actorilor, propune o etică a IA. Se consideră astfel că numai reglementarea de soft law ar permite o regulare armonioasă a acestei tehnologii emergente. În privința conținuturilor propuse se constată un ușor amestec de genuri, în sensul că un număr important de angajamente reiau în realitate o serie de drepturi fundamentale. Propriu unei norme etice este de a fi o regulă de comportament, lipsită de sancțiune statală, pe care actorii și-o impun ei înșiși, ori respectarea drepturilor fundamentale nu e opțională, ea nu trebuie să depindă nicidecum de voința celor implicați. Și aceasta fără a ține seamă de faptul că actorii respectivi sunt cei mai puternici dintre cei existenți, singurii care își impun o normă de comportament. Indiscutabil, „dreptul suplu” prezintă anumite avantaje: e transnațional, regula sa e agilă, dezlegată de orice procedură normativă și respectată, fiind acceptată de părțile interesate. Dar privatizarea normei cu corolarul său dezangajarea statelor nu e de dorit. În timp ce apelul la drepturile fundamentale poate fi apreciat ca o consolidare prin confirmare, parazitarea normativă comportă riscul de degradare a drepturilor fundamentale, lăsând să se creadă că acestea nu s-ar bucura de imperativitate. Așadar, într-un plan mai general, norma etică trebuie să se articuleze cu regula legală și nu să i se substituie, iar nu de rivalitate, ci de complementaritate.

Pe fond, dacă drepturile fundamentale apar în mod incontestabil ca un obiectiv partajat, criticile în privința perceperii exigențelor aferente și a garantării lor se îndreaptă mai ales spre abordările de reglementare juridică.

2. Dreptul unei geopolitici digitale globale. Într-o cheie a unui drept al geopoliticii digitale globale, Anu Bradford sesizează și prefigurează o adevărată „bătălie etico-juridică” a polurilor publice și private dominante în domeniu și în privința reglementării aferente[7]. Referitor la actorii publici am fi în prezența, în principal, a „trei imperii reglementare”: SUA, China și Uniunea Europeană; referitor la cei privați, sunt avute în vedere îndeobște multinaționale precum Amazon, Apple, Google, Meta și Microsoft și numeroasele lor start-upuri care concentrează o putere economică considerabilă și care acționează influent în sfera autoreglementării. Ele poartă o confruntare deschisă adesea și în termeni reglementari, dar cu o încărcătură economică și de poziționare geostrategică evidentă, pe care autorul citat o descifrează printr-o abordare orizontală și verticală. În prima ipostază, transpar modelul de reglementare axat pe piață, în privința SUA, cel centrat pe stat în China și, respectiv, cel al Uniunii Europene bazat pe drept. Fiecare din aceste mari tendințe se exercită la scară globală, cu puncte de diferențiere, dar și asemănătoare. În relația verticală prezintă interes raporturile de putere publică/privată economică (pentru a prelua o expresie de drept economic). În SUA și în China giganții inteligenței artificiale sunt considerați atât ca aliați, cât și ca inamici ai politicilor reglementare naționale. În context global, multinaționalele domeniului jonglează cu imperative publice contradictorii. Această juxtapunere de raporturi creează o stare generalizată de constrângeri, în care interesele aflate în joc sunt puternic intersectate și în anumite privințe interdependente. Pe acest fundal general se desprind și veleitățile expansioniste ale fiecăruia dintre imperii. SUA s-au servit în mod evident de atotputernicia mastodonților săi tehnologici spre a extinde și impune un model de libertate economică. China și-a impus influența în infrastructurile din Asia, Africa, America Latină și unele părți din Europa, precum și în organizații internaționale responsabile cu definirea standardelor tehnologice, fără a se confrunta cu rezistențe semnificative din partea celorlalți competitori. În fine, Europa a utilizat puterea sa reglementară spre a fasona mersul tranziției digitale și izbucnirea revoluției IA și a mizat, și o face în continuare, pe așa-numitul „efect Bruxelles”[8], având ca exemplu emblematic în acest sens modelul european de protecție a datelor cu caracter personal.

Dacă în utilizarea tehnologiilor algoritmice apare discriminarea tehnologică, una care se traduce printr-un rău ori injust tratament al indivizilor într-o societate dată, reglementarea problematicii IA la nivel global, cu implicarea cvasi exclusivă a marilor puteri economice și a giganților tech multinaționali poate genera inegalități între state (națiuni) și revendicări de răspunsuri adecvate, corective. Într-adevăr, incidențele acesteia pot merge până la a imprima inegalități structurale și culturale, chiar cauza unei injustiții flagrante. În privința UE se vorbește de o „imposibilitate sistemică” a acesteia, generată de faptul că dreptul unional-european al concurenței se întemeiază pe ideea că obiectivele fundamentale ale regulilor Uniunii constau în a garanta buna funcțiune a pieței interioare în profitul consumatorului, uitând de concurența între zonele geografice mondiale; la rândul său, Regulamentul IA Act favorizează tot o abordare orientată spre consumator și neglijează instrumentul productiv al ecosistemului digital european[9].

De aceea, una din preocupările importante ale dreptului IA în curs de cristalizare ar trebui să fie tocmai stabilirea de mijloace care să prevină și/sau combată inegalitățile social-economice pe care le poate genera ori amplifica utilizarea noilor aplicații tehnologice. Încă în 2019 raportorul special al ONU pentru sărăcie extremă și drepturile omului, Ph. Alston, atrăgea atenția asupra faptului că multe dintre soluțiile bazate pe IA în cazul în care nu vor fi adoptate și promovate noi măsuri adecvate de corectare, vor conduce numai la „automatizarea sărăciei” ori chiar la accelerarea fenomenului. Potrivit acestuia, câștigurile promise s-ar reduce mult dacă nu se intervine așa încât deciziile tehnologice să nu genereze și mai multe fracturi ale societății, cu riscul chiar de a deveni mai rapide și ireversibile.

Potrivit estimărilor OCDE, din cele circa 600 de reglementări sau inițiative care au legătură cu IA și care provin din 60 de state, cea mai mare parte aparțin unor actori din „nordul global”, cu consecințele aferente: luarea în considerare a situației și exprimarea cu precădere a intereselor acestui spațiu geostrategic. Așadar, ce loc și chiar rol mai rămân „sudului global” în dezbaterea și rezolvarea problemelor avansului și limitelor IA? Se reduc ele la simpla receptare și aplicare a regulilor elaborate de alte țări? Ori, dimpotrivă, vor căuta să creeze soluții proprii pentru impactul tehnologiilor IA în aceste state? Dacă problemele sunt altele și soluțiile de care e nevoie sunt altele, se impun, în consecință, reglementări adecvate, cel puțin la nivel regional, așa cum se revendică, de exemplu, în America Latină[10].

În acest context complicat, dar dominat de vocația tratării globale a problemei, în fața provocării de aceeași anvergură pe care o prezintă IA pentru civilizația umană s-a propus și o „guvernanță mondială a IA”, constituită pe trei piloni: o organizație mondială a IA, pentru a evalua și încadra sistemele acesteia, un fond internațional pentru IA în serviciul interesului general și un mecanism de solidaritate „1% IA” pentru a partaja puterea de calcul cu țările în curs de dezvoltare. Franța a sugerat că această preconizată „World AI Organization” ar putea avea sediul la Paris și să fie creată în cadrul summit-ului pe această temă, pe care s-a oferit a-l găzdui în viitorul apropiat[11].

3. Spre o reglementare de drept internațional. Rezoluția Adunării Generale a ONU din 21 martie 2024 privind promovarea sistemelor de inteligență artificială sigure, securizate și fiabile pentru dezvoltarea durabilă, creează premisele unei abordări globale în cadrul multilateralismului onusian a problematicii și deschide calea spre o reglementare de drept internațional a acesteia. Într-adevăr, ea extinde preocupările și rezultatele deja înregistrate în sistemul ONU, în special de Uniunea Internațională a Telecomunicațiilor (UIT), UNESCO și Comitetul Drepturilor Omului, în planul politicii generale a organizației mondiale și amplifică procesul de încadrare normativă a provocărilor inteligenței artificiale. Documentul adoptat prin consens și având ca inițiator SUA și coautoare 123 state se remarcă și dă tonul în această privință, prin dialogul inclusiv și constructiv ce a caracterizat demersul pentru discuțiile, negocierile și reglementările viitoare în noi sectoare dezvoltate pe această bază (precum pacea și securitatea internațională, utilizarea militară responsabilă a autonomiei IA ș.a.). Din perspectivă juridică suntem la momentul exprimării intențiilor politice ferme și al inițierii reperelor definitorii de urmat și reflectat. Se circumscriu acestei perspective ca veritabile linii directoare de reflecție, reglementare și acțiune: înscrierea IA drept componentă a demersurilor de promovare a obiectivelor dezvoltării durabile 2030 (ODD), imperativul respectării, protecției și promovării drepturilor umane în utilizarea noilor tehnologii, reducerea fracturii digitale între state și în cadrul aceleiași țări, asigurarea acelorași drepturi umane în cadrul internetului și în afara on-line. Încercând o previziune asupra evoluțiilor viitoare se poate avea în vedere, după modelul oferit de alte probleme mondiale, elaborarea și adoptarea unui tratat-cadru în materia IA, care să fie apoi completat și dezvoltat deopotrivă în raport cu provocările de etapă și exigențele, particularitățile diferitelor domenii de activitate. Primul reper ar viza astfel progresele la nivelurile cunoașterii și aplicațiilor tehnologice ale inteligenței artificiale, iar secundul, complementar și interdependent, s-ar referi la diversitatea în plan orizontal, prin excelență tematică. Aceste dezvoltări normativ-instituționale preconizate continuă cu ajungerea la adoptarea unui pact mondial privind inteligența artificială și crearea unei agenții internaționale în domeniu după modelul AIEA. În percepția onusiană, noul capitol al dreptului internațional public astfel generat ca drept internațional al inteligenței artificiale ar trebui să se fondeze, așa cum declara Secretarul general al ONU la summitul din noiembrie 2023 din Marea Britanie în privința guvernanței aferente „pe Cartă (din 1945) și Declarația Universală a Drepturilor Omului (1948)” și să urmeze în constituirea și dezvoltarea substanței sale normative orizonturile prezentate în rezoluția Adunării Generale din 21 martie 2024. Pe atari baze programatice, cărora li se adaugă și alte instrumente de soft law, asistăm la derularea la nivel internațional a unui proces tot mai viguros de cristalizare a reglementării în materie de inteligență artificială. În aceeași perspectivă de cadru interstatal, cu vocație mondială, dar ca o inițiativă pornită dintr-un context regional se remarcă Convenția-cadru privind inteligența artificială, drepturile omului, democrația și statul de drept a Consiliului Europei (aflată în fază finală de adoptare). Considerată drept primul tratat constrângător juridic în materie de IA, documentul se caracterizează și prin faptul că e deschis ratificării pentru ansamblul statelor lumii. De aceea, această inițiativă aparținătoare unei organizații internaționale regionale, Consiliul Europei are, prin anvergură, calitatea de a stabili cadrele generale ale reglementării interstatale a regimului juridico-etic al inteligenței artificiale. În plus, în virtutea caracterului său declarat de convenție-cadru documentul urmează să fie completat și dezvoltat printr-o serie de reglementări sectoriale care să trateze „chestiuni specifice legate de activitățile desfășurate în cadrul ciclului de viață al sistemelor de IA”. Totodată, asocierea sa cu Regulamentul IA al Uniunii Europene face din Europa „centrul mondial al reglementării juridice a sistemelor de inteligență artificială”.

4. Încadrarea legală a inteligenței artificiale în cele trei „imperii de reglementare”. Marile puteri în materie de IA văd un avantaj în a reglementa în domeniu, în special spre a se asigura că sistemele conceptualizate, dezvoltate și utilizate pe teritoriul lor respectă anumite mari principii, precum transparența, protecția vieții private și drepturile persoanei, securitatea marelui public și etica necesară. În același timp, caracterul global al revoluției inteligenței artificiale presupune o anumită uniformitate a regulilor guvernanței aferente, așa încât diferențele să nu afecteze concurența, iar măsurile luate să nu inhibe inovația. Luând în calcul cei trei mari poli economici mondiali și de dezvoltare și utilizare a tehnicilor de IA – SUA, China și Uniunea Europeană – și reacția lor reglementară de până acum, observăm normative de încadrare în evoluție, cu un echilibru între etic și juridic marcat și de tradițiile de sistem de drept de apartenență. În iunie 2023 premierul britanic a prezentat Regatul Unit ca viitor foaier mondial al reglementării IA, dar rezultatele summitului de la începutul lui noiembrie același an nu au condus la reușitele scontate. La rândul său, China și-a lansat noua sa reglementare privind conținuturile generate de IA în august 2023 și Preşedintele SUA a emis un decret pentru o IA sigură, securizată și demnă de încredere, în octombrie 2023. În fine, la nivelul UE, la 13 martie 2024 s-a ajuns la adoptarea finală a IA Act.

4.1. Cadrul juridic american. Guvernul federal al SUA a adoptat inițial o abordare mai pasivă în materie de reglementare a IA în scopul de a favoriza inovația și a nu împiedica creșterea în domeniu. La apariția semnificativă a aplicațiilor noilor tehnologii ale IA cadrul normativ american era constituit în principal de legile și regulamentele deja existente și mai puțin pe o legislație globală și aplicabilă tuturor sistemelor de această natură. Au urmat apoi o serie de linii directoare neobligatorii, precum cele aferente Declarației drepturilor IA pentru conceperea și utilizarea responsabilă a noilor tehnologii, publicată de Casa Albă în octombrie 2022 și o serie de corpusuri de norme de autoreglare sectorială. Într-o perspectivă evolutivă, mai ales sub impactul evoluțiilor rapide în domeniul și apariția inteligenței artificiale generative, la 30 octombrie 2023, după ce în iulie același an 15 mari întreprinderi americane de profil au adoptat un angajament voluntar pentru a favoriza o dezvoltare sigură, securizată și demnă de încredere a IA, Președintele american a semnat un decret vizând a guverna dezvoltarea și utilizarea IA. Actul executiv urmărește în special să stabilească noi norme în materie de siguranță și securitate a inteligenței americane, a proteja viața privată a persoanelor, a face să promoveze echitatea și drepturile civile, a apăra consumatorii și lucrătorii, a promova inovarea și concurența și a face să progreseze leadershipul american în lume.

Cadrul reglementar astfel instituit are în vedere:
– să identifice clar conținutul generat de IA în scopul de a proteja populația contra fraudei și înșelătoriei bazate pe IA;
– a testa sistemele IA pentru a asigura că sunt sigure, securizate și demne de încredere;
– a partaja rezultatele testelor lor de securitate și a altor informații critice cu guvernul SUA.;
– a dezvolta investițiile în sectorul IA în scopul de a găsi și de a corija vulnerabilitățile programelor critice.

Pentru guvernul federal al SUA și agențiile sale se stabilesc următoarele exigențe generale:
– elaborarea unui memorandum privind securitatea națională care să orienteze acțiunile viitoare referitoare la inteligența artificială;
– întărirea și accelerarea cercetării și a dezvoltării instrumentelor pentru prezervarea vieții private;
– elaborarea de directive clare vizând a împiedica algoritmi de IA să fie utilizați spre a exacerba discriminarea;

– aplicarea celor mai bune practici în ansamblul sistemului de justiție penală și în special în materie de anchete și urmărire în caz de violare a drepturilor civile legate de noile tehnologii;
– stabilirea unui program de securitate pentru a primi semnalările de prejudicii ori de practici de îngrijire a sănătății periculoase implicând IA și stabilirea de măsuri pentru a le remedia;
– elaborarea de principii și de practici exemplare pentru a atenua prejudiciile și a maximiza avantajele IA pentru lucrători, descurajând deplasarea locurilor de muncă;
– concentrarea cercetării privind inteligența artificială de-a lungul Statelor Unite grație unui proiect pilot al National AI Research Resources.

Pe lângă atari evoluții afirmate în plan federal și statele federate au încorporat treptat reguli privind IA și în legile mai vaste, vizând sectoare foarte specifice, precum cele ale locurilor de muncă, protecția vieții private și a consumatorilor. De remarcat faptul că, în contextul adoptării decretului din 30 octombrie 2023, Președintele S.U.A. preciza că, pentru a se realiza promisiunile inteligenței artificiale și a se evita riscurile aferente, această tehnologie trebuie guvernată și nu există o altă soluție decât încadrarea sa[12].

4.2. Cadrul juridic privind IA din China. Și în China s-a instituit o reglementare în materie, atât în ceea ce privește confidențialitatea datelor, proprietatea intelectuală, securitatea națională, cât și etica. Noile măsuri (provizorii) legislative privind gestiunea serviciilor de IA generativă, în vigoare de la 15 august 2023, prefigurează un cadru juridic menit să guverneze furnizarea și utilizarea sistemelor de inteligență artificială. Conform contextului socio-politic al țării se prevede astfel în special exigența adecvării conținutului acestora la valorile fundamentale ale socialismului și interzicerea incitării la acțiuni subversive contra statului, de răsturnare a sistemului socialist, punere în pericol a securității și intereselor statale, atingerea imaginii acestuia, incitarea la secesiune, la afectarea unității statului și a stabilității sociale, propagarea terorismului, extremismului, promovarea uniunii naționale și a discriminării etnice, violenței, obscenităților și pornografiei, precum și de informații false și vătămătoare. Aceste reguli se aplică sistemelor de inteligență artificială generativă ce furnizează marelui public servicii care permit generarea de texte, imagini, conținut audio ori video.

Pentru furnizorii acestora reglementarea prevede următoarele obligații:
– utilizarea de date și modele de bază provenite din surse legitime;
– evitarea înfrângerii drepturilor de proprietate intelectuală de care se bucură alte persoane;
– obținerea consimțământului indivizilor ale căror informații personale sunt utilizate;
– luarea de măsuri eficiente pentru ameliorarea calității datelor de formare și consolidare a autenticității, exactității, obiectivității și diversității datelor de formare.

Noile măsuri reflectă eforturile Chinei de a încuraja inovația și dezvoltarea inteligenței artificiale generative, păstrând și apărând totodată valorile socialismului, responsabilitatea furnizorilor și protecția proprietății intelectuale. În fine, așa cum le arată și denumirea, măsurile sunt calificate ca provizorii, ceea ce denotă același caracter în permanență evolutiv al cadrului reglementar aferent.

4.3. Cadrul juridic unional-european pentru IA. Regulamentul Parlamentului European și al Consiliului din 13 martie 2024 de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) reprezintă prima reglementare cu caracter obligatoriu din lume adoptată în această materie[13]. Reglementarea unional-europeană adoptă și promovează o abordare „proactivă” în materie, recunoscând beneficiile sistemelor de IA pentru cetățeni, întreprinderi și interesul public, dorind, totodată, să se pună la adăpost împotriva riscurilor de securitate și pentru drepturile fundamentale asociate acestora. Așa cum s-a subliniat în cadrul dezbaterilor europarlamentare aferente, s-a dorit ca prin regulamentul în cauză să se dea tonul la nivel mondial în materie de dezvoltare și de guvernanță a inteligenței artificiale, veghindu-se ca această nouă tehnologie, chemată să transforme în mod radical societățile noastre grație avantajelor considerabile pe care le poate oferi, să evolueze și să fie utilizate în respectul valorilor europene care sunt democrația, drepturile fundamentale și statul de drept. În accepțiunea actului legislativ, un sistem de inteligență artificială înseamnă „un sistem automatizat care e conceput pentru a funcționa la diferite niveluri de autonomie și care poate, pentru obiective explicite ori implicite, să genereze rezultate precum predicții, recomandări ori decizii ce influențează mediile fizice ori virtuale” (art. 3). O atare definiție înglobează în special sisteme care utilizează IA simbolică ori generativă, învățarea automată, logica și cunoștințele și chiar cele care nu sunt încă inventate. De asemenea, același articol precizează că textul legal se aplică tuturor persoanelor fizice ori juridice (morale), autorităților publice, agenții ori alte organisme ce dezvoltă ori fac să se dezvolte, pun pe piață, în serviciu, la dispoziție ori utilizează atari sisteme în piața UE, cu titlu oneros sau gratuit.

Ele sunt clasificate în patru categorii, respectiv cele cu risc inacceptabil, de risc înalt, cu risc limitat și cu risc slab ori minimal. Se interzic astfel anumite practici de IA considerate ca inacceptabile, în special sistemele care permit: manipularea persoanelor prin tehnici subliminale acționând asupra inconștientului lor, exploatarea vulnerabilităților grupurilor specifice, precum copiii ori persoanele handicapate, identificarea biometrică la distanță „în timp real” în spații accesibile publicului, cele de identificare biometrică utilizând caracteristici sensibile, precum genul, rasa, originea etnică, statutul de cetățean, religia, orientarea politică, cele care permit determinarea probabilității ca o persoană să comită o infracțiune ori recidivă și fondate pe profilaj, localizare ori comportament criminal trecut, ducere a emoțiilor și utilizări în serviciile represive, gestiunea frontierelor, locul de muncă și unitățile de învățământ, crearea ori dezvoltarea de baze de date de recunoaștere facială prin sesizarea nețintită de imagini faciale provenite de pe internet ori din video-supraveghere. Referitor la sistemele de IA de înalt risc – respectiv cele care prezintă un risc ridicat pentru sănătate, securitate ori drepturile fundamentale ale persoanelor fizice, precum cele utilizate în materie de identificare biometrică, de acces la educație, de gestiune a mâinii de lucru, de acces la servicii private esențiale și la servicii și prestații publice, de aplicare a legii, de justiție și de control la frontieră – se prevăd exigențe mai severe. Ele trebuie în special să fie tratate în timpul dezvoltării și înainte de punerea lor pe piață în scopul determinării măsurilor care să permită gerarea și minimizarea riscurilor lor. În plus, se impune un anumit grad de transparență, de trasabilitate, exactitate, control uman și de cybersecuritate.

Nerespectarea acestor reguli e sancționată prin „amenzi mergând de la 7,5 milioane de euro ori 1,5% din cifra de afaceri la 35 milioane de euro ori 7% din cifra de afaceri mondiale, în funcție de infracțiunea și de talia întreprinderii”. Totodată, un oficiu european creat în cadrul Comisiei Europene va supraveghea la aplicarea actului legislativ respectiv. S-a instituit astfel un cadru juridic relativ complet al IA în scopul de a asigura ca sistemele de inteligență artificială dezvoltate, concepute, puse pe piață și utilizate în Uniunea Europeană să fie centrate pe factorul uman, în așa fel încât să se asigure o utilizare a tehnologiei sigure și conformă respectării drepturilor fundamentale. În orice caz, regulamentul unional-european e văzut precum o reglementare juridică istorică, de pionierat, care va juca în domeniu și un rol pe scara internațională, în sensul că ea nu numai că „a creat reguli, dar le și exportă” cu precădere prin caracterul de exemplaritate pe care îl induce, dar și prin condiționalități pe care le poate impune. Integrate perspectivelor de drept internațional, prefigurate de rezoluția Adunării Generale a ONU din 21 martie 2024 și  consolidate de preconizata Convenție-cadru a Consiliului Europei, atari reglementări converg spre cristalizarea unui „drept global” al IA.

***

Multă vreme limitată numai la opere de ficțiune, inteligența artificială se dezvoltă astăzi în mod exponențial și inundă toate domeniile vieții socio-umane. Ca orice inovație, și cu atât mai mult una atât de revoluționară, ea ridică și multiple și profunde probleme juridice și impune analize și reflecții corespunzătoare. Deopotrivă obiect și cu pretenție de subiect de drept, vorbindu-se de apariția unei „persoane juridice de al treilea tip”, impactul său reclamă inovații asupra normativității existente și dezvoltări substanțiale, calitative pentru viitor, din moment ce dreptul însuși devine un obiect al IA, asistând la apariția unui „transjuridism”.


[1] Rezoluția Parlamentului European din 3 mai 2022 privind inteligența artificială în era digitală, 2020/2266/INS.
[2] Al. Grinbaum, Régulation de l’IA: „La technologie va trop vite pour les lois”, Propos recueillis par H. Pons, „Le Point”, 5 martie 2024.
[3] E. Sadin, Intelligence artificielle: la grande illusion de la régulation, „Liberation”, 29 februarie 2024.
[4] E. Sadin, La vie spectrale: Penser l’ère du métavers et des IA génératives, Editions Grasset, Paris, 2023, p. 64.
[5] Raportul (legislativ) Delvaux (după numele europarlamentarului luxemburghez M. Delvaux, președintele comisiei de elaborare), prezentat în 2017 Comisiei Europene, propunea unele măsuri foarte idealiste și ideologizate în apărarea roboților. Printre altele se prezenta argumentarea omului precum ceva esențialmente pozitiv, se stabilea noțiunea de persoană morală printre roboți, în scopul de a-i considera subiecți de drept; în versiunea originală se dorea chiar să se permită acestora să aibă un patrimoniu de asigurări și a investi în Bursă, în scopul de a-și putea finanța propria evoluție, în „plin delir distopic”. Cu unele modificări documentul a fost adoptat și a făcut obiectul Recomandării PE din 16 februarie 2017.
[6] P.-A. Michau, Face à l’avènement de l’intelligence artificielle, nous manquons de philosophes, „Le Figaro”, 19 ianuarie 2023. În contextul consultărilor privind Ghidul etic privind IA al Comisiei Europene s-au propus, printre altele, să se permită utilizatorului dacă nu vrea să treacă printr-un algoritm să ceară o interacțiune umană ori instituirea unei etichete etice pentru algoritm „Etic Inside” și care să garanteze respectarea regulilor etice europene. Dar e aproape imposibil de urmărit drumul prin care un algoritm a ajuns la o anumită decizie și deci a spune dacă e etic sau nu, dacă respectă regulile. De asemenea, se ridică și problema răspunderii care complică lucrurile. Cine e responsabil de deciziile unui algoritm: întreprinderea, dezvoltatorul, utilizatorul ori IA însăși? Cum obiectivăm elementul subiectiv (moral) al unui algoritm dacă nu putem răspunde la această chestiune? Dezvoltatorii nu pot considerați răspunzători de algoritmii atât de complecși pe care nu-i controlează total. Prin natura sa IA scapă în parte controlului nostru și tocmai de aceea nu i se poate acorda personalitate juridică.
[7] Anu Bradford, Digital Empires – The Global Battle to Regulate Technology, Oxford UniversityPress, 2023, p. 68-91.
[8] The Brussels effects. Teoria, acreditată mai ales prin lucrările lui A. Bradford, care decriptează, afirmă și susține influența indirectă exercitată de reglementarea unional-europeană în diferitele regiuni ale lumii sub impactul (influența) șocului pieței.
[9] C. Dalmont, IA: «La dépendance numérique de l’UE envers les technologies étrangères est indissociable de son déclin économique», „Le Figaro”, 26 martie 2024.
[10] N. Zuazo, Una política propia para la inteligencia artificial de América Latina, „El Pais”, 17 februarie 2024.
[11] Raportul „IA: notre ambition pour la France”, 13 martie 2024; A. Piquard, Intelligence artificielle: un plan d’action pour placer la France «à la pointe», „Le Monde”, 13 martie 2024.
[12] C. Castets-Renards and J. Eynard (editors), Artificial Intelligence Law. Between Sectoral Rules and Comprehensive Regime. Comparative Law, Editions Bruylant, Bruxelles, 2023, p. 69-80.
[13] J. Sénéchal, L’AI Act dans sa version finale – provisoire –, une hydre à trois têtes, Dalloz- Actualité, 11 mars 2024.


* Comunicare susținută în cadrul Conferinței internaționale Spre un drept al inteligenței artificiale. Premise, Actualități. Perspective, București, Casa Ecologiei, 5 aprilie 2024.

Prof. univ. dr. Mircea Duțu
Directorul Institutului de Cercetări Juridice „Acad. Andrei Rădulescu” al Academiei Române