Noi aspecte și inedite provocări ale cadrului juridic privind IA. Spre un cod (universal) al inteligenței?


Preocupările privind reglementarea „pe bază de riscuri” a utilizării și afirmării tehnologiilor inteligenței artificiale (IA) cunosc noi perspective prin dezvoltări survenite deopotrivă în cadrul reuniunilor internaționale și a cadrelor adecvate interne și regionale. Un pas important în această direcție l-au reprezentat concluziile summit-ului G7 de la Hiroshima (Japonia, 19-21 mai 2023) care s-a pronunțat în favoarea construirii unei viziuni comune, având în centrul său obiectivul unei IA de încredere, promovată printr-o guvernanță a economiei digitale conforme exigențelor valorilor democratice occidentale.

Sub influența preconizatei reglementări cuprinzătoare a Uniunii Europene (UE) în domeniu, centrată pe respectul drepturilor omului și pe sisteme de inteligență artificială „fiabile, sigure și nediscriminatorii, indiferent de originea lor”, liderii celor mai dezvoltate țări economico-tehnologic au analizat oportunitățile și provocările aferente inteligenței artificiale generative. Pentru continuarea demersurilor pertinente s-a creat un forum ministerial, Procesul IA de la Hiroshima, drept cadru pentru a se discuta problemele legate de IA generativă, cum ar fi drepturile de proprietate intelectuală și dezinformarea, care să formuleze până la sfârșitul acestui an concluzii pertinente. Dinamica preocupărilor normative generate în acest context sunt deosebit de semnificative pentru structurarea răspunsului juridic necesar a se constitui urgent.

1. Ceea ce ar urma să constituie „dreptul pozitiv al inteligenței artificiale” presupune, înainte de toate, o reglementare, pe cât posibil concertată și uniformă, știut fiind faptul că atomizarea normelor (juridice) care vizează tehnologia cea mai relevantă a acestui secol cu o deschidere globală, poate avea consecințe negative în multiple planuri. Ne aflăm, în mod evident, în fața unui moment istoric al dezvoltării fenomenului juridic în toate dimensiunile sale constitutive. Important este acum de a găsi căile de a o face și a promova expresiile cele mai potrivite. O analiză recentă a Stanford University referitoare la perioada 2016–2022 releva că s-a început cu o lege cu rezonanță în materie și s-a ajuns deja la 37. Prezența IA în procedurile reglementare din 81 țări a crescut aproape de șapte ori. În capul listei se află Spania cu 273 de mențiuni de gen, urmată de Canada cu 211, Marea Britanie cu 14 și SUA cu 138. Și toate acestea în condițiile în care se așteaptă cadrul juridic pertinent al UE considerat cel mai complet și adecvat domeniului. Așadar, drumul spre o reglementare adecvată a aplicațiilor IA a început și toată lumea privește spre marile puteri economice în căutarea și urmarea unei orientări generale și pe cât posibil integrative, care să evite discrepanțele și neconcordanțele reglementare care ar afecta grav comerțul internațional prin distorsionarea competitivității între țări și marile blocuri economice. Odată cu apariția ChatGPT și a primilor pași spre o inteligență artificială generată (IAG) dezbaterea tehnică se concentrează pe garantarea faptului ca mașinile să nu sfârșească în acest demers a prelua controlul a tot și a-și stabili și urmări scopuri proprii. Din această perspectivă alinierea reglementărilor pretinde că vrea să ajungă la ceea ce doresc să facă sistemele și ceea ce în realitate vor face. Această preocupare e cea care a condus la concluzia exprimată atât de sugestiv de declarațiile savantului G. Hinton cum că „dacă există o formă de a menține inteligența artificială sub control trebuie să o descoperim și să o aplicăm mai înainte ca IA să devină prea inteligentă”. La rândul lor, cei care cercetează OpenAI își exprimă temerile că în fața unei dezvoltări științifice care pune față în față interesele umane și principiile etice, primele vor prevala. Cei care dezvoltă această tehnologie solicită să se oprească activitățile aferente, dar în mod curios doar numai pentru 6 luni, în timp ce alți cercetători ai domeniului afirmă că mult mai important decât o atare măsură discutabilă este a impune o reglementare care să promoveze și să garanteze transparența IA. Nu în ultimul rând, e nevoie a se acorda o atenție deosebită IAG, înțeleasă ca un sistem digital în stare să îndeplinească orice activitate umană și să genereze noi cunoștințe. Un fenomen care, potrivit unora, ar fi mai nimerit să fie denumit GoodIA! Aproape 40 la sută din experții domeniului cred că inteligența artificială generalizată ar putea duce la o „catastrofă de tip nuclear”, și de aceea până și cel mai liberal întreprinzător e de acord cu instituirea unei reglementări adecvate. În același timp însă, mai mult decât a deveni obsedați de problemă și a cădea pradă teoriilor conspirației fără a face efectiv ceva, ar fi nevoie de inițierea unei dezbateri globale la care să participe nu numai guvernele, ci toți cei interesați, care să ofere perspective de revizuire a inițiativelor ce dau formă dezvoltării tehnologice și permit să convenim obiective minime pentru perioada imediat următoare. Desigur, o pânză complexă și complicată de reglementări ar fi dificil de acceptat și de implementat, mai ales într-o lume în proces de deglobalizare, precum acum a noastră. Iar evoluțiile și manifestările pertinente din ultimul timp sunt elocvente în acest sens. În același timp, lipsa de reglementare sau lăsarea acesteia numai pe seama normelor voluntare poate favoriza riscuri majore, inacceptabile.

2. Continuă și experimentele de reglementare naționale în domeniu, cu precădere cele referitoare la aplicațiile tehnologice precum ChatGPT. Astfel, China a introdus un grup de norme vizând serviciile bazate pe IA generativă. Intenția Beijingului e aceea ca întreprinderile să facă evaluări de siguranță înainte ca produsele respective să fie lansate pe piață. Aceste norme stabilesc întreaga răspundere pe toți cei care aprovizionează piața cu aplicațiile în cauză, care sunt ținuți să garanteze legalitatea datelor folosite în soluțiile lor tehnologice pe care le propun, precum și să implanteze măsuri preventive care să evite discriminarea în crearea de algoritmi și în folosirea informațiilor culese. La rândul său, Italia, dacă inițial a decis să blocheze utilizarea ChatGPT, ulterior, după ce întreprinderile vizate au făcut o serie de ajustări cu privire la respectarea dreptului la viață privată în folosirea datelor, a revenit și încearcă emiterea unor reglementări proprii. În acest sens este de remarcat și faptul că, recent, Comitetul european pentru protecția datelor a creat un grup de lucru special, prin contribuția tuturor autorităților naționale competente, care comunică zilnic rezultatele investigațiilor asupra celei mai populare întreprinderi a momentului, Open IA. Numai că rămâne de văzut dacă există numai un singur producător și promotor al unui atare model de limbaj inedit și atât de provocator! În contrast cu asemenea poziționări, state precum Marea Britanie sau India au optat pentru a evita stabilirea de reglementări stricte, cel puțin în această fază de afirmare a inteligenței artificiale, urmărind să permită ca tehnologia să evolueze liber spre a obține mari beneficii pentru creștea economică.

3. Marți 16 mai a.c. Sam Altman, PDG al OpenAI, creatorul robotului conversațional ChatGPT, a fost audiat în congresul S.U.A. de membrii comisiei pentru probleme juridice a Senatului, într-un exercițiu mai degrabă politic și mediatic destinat pentru uzul opiniei publice asupra inteligenței artificiale generative și a posibilelor sale implicații politico-juridice. Așadar, un patron al unei întreprinderi de „tech” în fața reprezentanților poporului, a puterii legislative din preocuparea comună „de a nu repeta erorile trecutului”, după expresia lui Richard Blumenthal, președintele democrat al comisiei, regretându-se că rețelele sociale și Webul nu fuseseră reglementate de la începuturile lor. Mai mult decât atât, parlamentarul în cauză a afirmat că trebuie să se demistifice „nebuloasa” IA și se impune a ține responsabile întreprinderile pentru numeroasele riscuri provocate de softurile generatoare de texte și imagini: decizii algoritmice discriminatorii, dezinformare, lipsă de transparență, pierderi de locuri de muncă ș.a. Creatorul ChatGPT a susținut să reglementarea IA este esențială și a propus un sistem de autorizare a marilor modele de inteligență artificială prin care autoritățile ori o nouă agenție specializată să se asigure că sunt respectate criterii de securitate adecvate. S-au acceptat și auditori externi în materie. Totuși, cel puțin până acum OpenAI a publicat puține detalii asupra ultimului său model GPT-4.

Unele din problemele abordate în cadrul audierii sunt în dezbatere și în cadrul Uniunii Europene, ca de pildă: în caz de daună, care e responsabilitatea fabricanților de softuri precum OpenAI? Aceasta trebuie să fie limitată, precum cea a rețelelor sociale care adăpostesc conținuturi, sau orice cetățean trebuie să poată urmări un editor de IA? Ea trebuie să opereze la minimum, și în mod conjugat cu cea a întreprinderilor ce utilizează aceste softuri în serviciul lor, s-a pronunțat S. Altman. Atenționat asupra riscului de spoliere din partea IA de muzică și conținuturi protejate prin dreptul de autor, acesta a refuzat să promită „o remunerare” a autorilor, dar a asigurat că în orice caz „artiștii ar trebui să beneficieze de dezvoltarea inteligenței artificiale”. Se apreciază că, în pofida presiunii crescânde puse de autoritățile americane și de Casa Albă în ultimele luni, probabilitatea de a vedea în curând adoptată și intrată în vigoare o lege în materie în SUA este redusă. Și aceasta ar viza să nu restrângă prea mult inovația, invocându-se avansurile concurențiale de care ar beneficia unele țări precum China. Desigur, reamintindu-ne de versiunea legii europene privind IA propusă de Parlamentul European am putea întrevedea, într-un anumit sens, chiar emergența unui cadru comun de reglementare a câmpului tehnologic, prin conjugarea de viziuni și reglementări între Bruxelles și Washington.

Nu în ultimul rând, relatările privind audierea din fața Congresului au reținut că „Dacă există posibilitatea ca această tehnologie să meargă prost, atunci ea va merge foarte prost.” Propoziția va fi ținută minte şi poate se va dovedi a fi prevestitoare. Dar, într-un moment în care încă purtăm doliu pentru utopii, creatorul ChatGPT ne oferă speranța unei societăți a armoniei, a unui nou contract social „mult mai bun decât capitalismul”. Viitorul, consideră el, va fi „probabil minunat de bun”. Când ? Vizionarul Sam, din păcate, nu ne spune.

4. Aferent acelorași orizonturi digitale, în Franța Consiliul Constituțional a efectuat o primă evaluare a impactului cu legea fundamentală a unor dispoziții legale privind utilizări ale inteligenței artificiale, validând miercuri, 17 mai a.c., textul legii relative la Jocurile olimpice și paralimpice (JOP), considerat ca esențial pentru asigurarea reușitei acestora. Controlul de constituționalitate a purtat mai ales asupra măsurilor legate de securitate, precum experimentarea video-supravegherii algoritmice. Câmpul și durata sa de aplicare se întinde peste cea a respectivelor întreceri sportive (programate să se desfășoare între 26 iulie și 11 august 2024, cele olimpice și în răstimpul 28 august–8 septembrie cele paralimpice). Instanța constituțională fusese sesizată de deputații formației politice „La France insoumise” (LFI) și de cei ecologiști care considerau că legea, prin intermediul mai multora dintre articolele sale, în special cele relative la dispozițiile securitare „ignoră principiul salvgardării demnității persoanei umane, principiul necesității și individualizării pedepsei, precum și dreptul la respectarea vieții private”. „Înțelepții” păzitori ai constituției nu au dat curs cererilor de cenzură purtând asupra experimentării video-supravegherii algoritmice. Ei nu au subscris nici la cele privind anchetele administrative, crearea delictelor reprimând unele intrări ilicite în incintele sportive și pe terenuri, ori întărirea arsenalului antidoping, cu teste genetice. Dimpotrivă, Consiliul Constituțional a suprimat, declarându-l neconstituțional, articolul care prevedea că Agenția franceză anti-doping putea să primească informații de la celula de informații financiare (Tracfin), considerând că ar fi vorba de un partener legislativ. Desigur, decizia instanței constituționale era așteptată mai ales în privința video-supravegherii algoritmice, subiect ce suscitase deja mai multe dezbateri și critici în cadrul examinării proiectului de lege. Guvernul, prin vocea ministrului de interne, insistase asupra „celor 28 garanții”, care încadrau stabilirea acestei tehnici, pe care Comisia națională de informatică și libertăți să le urmeze în confecționarea algoritmilor și pe care trebuia să le evalueze. Ministrul prezenta respectivul video zis „inteligent” ca „un instrument care ajută decizia”; în plus, nu ar fi vorba de a recunoaște persoanele care au un profil sau altul, ci de situații predeterminate „potențial purtătoare de risc, precum mișcările mulțimii, abandonul unui bagaj ș.a. Asemenea argumente nu au convins opoziția politică. În contestația lor de constituționalitate reprezentanții acesteia au reluat o bună parte din criticile lor considerând că „acest dispozitiv aduce atingeri grave libertăților fundamentale de deplasare și de a manifesta” și denunțând o experimentare care s-ar întinde dincolo de jocurile olimpice în sine (până la 31 martie 2025) cu, potrivit lor, un risc de perenizare. S-a relevat, de asemenea, că riscuri legate de definiția ce va fi dată – prin intermediul unui decret – unui „comportament anormal”, pe care respectivii algoritmi sunt presupuși a-i detecta, ar crea o temere de „o practică potențial discriminatorie și rasistă”. Dacă Consiliul nu a admis criticile de neconstituționalitate respective, el a însoțit declarația de conformitate cu „rezerve de interpretare”. S-a subliniat astfel că un prefect care autorizează video-supravegherea algoritmică va trebui „să-i pună capăt imediat” din momentul în care „condițiile care au justificat-o” nu ar mai fi reunite. Textul adoptat de Parlament prevede că reprezentantul guvernului în teritoriu „poate să suspende autorizarea ori a-i pune capăt la orice moment dacă constată faptul că nu mai sunt întrunite condițiile care au justificat eliberarea sa”. Instanța de contencios constituțional a mai adăugat că „În afara cazului în care circumstanțele ar interzice ori că aceste informații ar intra în contradicție cu obiectivele urmărite, publicul e informat în prealabil, prin orice mijloc apropriat, de folosirea de tratamente algoritmice privind imaginile colectate. S-au emis, totodată, în același mod „rezerve de interpretare” asupra recursului la analize genetice în cadrul controalelor antidoping, insistându-se asupra necesității de a informa „expres” sportivii în mod prealabil prelevării și, de asemenea, „de eventualitatea unei descoperiri incidente de caracteristici genetice care pot să fie responsabile de o afectare justificând măsuri de prevenire ori de îngrijiri, precum și posibilitatea de a se opune ca o atare descoperire să-i fie relevată”. În decizia în cauză s-a mai statuat că va aparține autorităților administrative competente să asigure, sub controlul judecătorului, că toate condițiile în care această informație este eliberată sportivului sunt de natură să garanteze că eșantioanele prelevate pot să facă obiectul analizelor genetice.

5. În timp ce Parlamentul European examinează Artificial Intelligence Act (având ca obiect încadrarea folosinței și comercializării inteligențelor artificiale) titularii de drepturi de proprietate intelectuală își manifestă din ce în ce mai mult îngrijorările în privința bulversărilor pe care le-ar putea angaja IA generative privind profesiile de creatori. Potrivit Comisiei Europene, acestea nu ar avea temei, întrucât chiar dacă a crescut „complexitatea și importanța interacțiunii între inteligența artificială și dreptul de autor” ea a ajuns totuși la concluzia că dreptul actual asigură un echilibru necesar. S-a apreciat în acest sens că excepțiile prevăzute de directiva (UE) 2019/790 privind dreptul de autor și drepturile conexe în piața unică digitală vizând căutarea de texte și de date „sunt pertinente în contextul IA” și asigură „un echilibru între două elemente: a proteja titularii drepturilor, în special artiștii, și a facilita explorarea de texte și de date, în special de către dezvoltatorii de IA”. Potrivit CE noile reguli rezultate din directivă ar permite respectivilor titulari să refuze utilizarea conținuturilor lor pentru explorarea de texte și de date; crearea de opere de artă de IA nu ar merita deci o intervenție legislativă specifică. De aici ar rezulta că ea nu ar avea în vedere să revizuiască această directivă, ci explică faptul că ar urmări îndeaproape chestiunile pe care le ridică dezvoltarea de sisteme de IA, incidența lor asupra sectoarelor culturii și creației și interacțiune cu cadrul juridic. Această poziție oficială suscită însă câteva observații/remarci atâta timp cât se știe că în practică respectivele faimoase „noi reguli reieșite din directivă” ridică semne de întrebare în ceea ce privește semnificațiile și aplicarea lor. Echilibrul ar fi asigurat grație unei chei: opt-out-ul care permite autorilor să se opună căutărilor asupra operelor lor. El este totuși departe de a fi atins din cauza faptului că, fie că opt-out-ul nu e încă suficient aplicat, fie că nu este respectat când se realizează efectiv. În încercarea de a demonstra o atare situație într-o analiză pertinentă a problemei St. Le Cam și Fr. Maupomé trec mai întâi succint în revistă cadrul legal unional-european preexistent și modul de transpunere a sa în dreptul francez (IA génératives de contenus: pour une obligation de transparence des bases de données!, în „Dalloz-Actualité”, 11 mai 2023). În urma unei analize pertinente din această perspectivă cei doi autori ajung la concluzia ineficacității principiului de opt-out. Și acesta întrucât el nu e totuși simplu de aplicat și nici de respectat: dacă în aparență excepția e facil de înlăturat (invocarea opoziției sale în condițiile generale ale sitului apărând a fi suficientă), multiplicarea aparițiilor aceluiași conținut on-line face lucrurile extrem de complexe și de complicate. Ne putem astfel întreba dacă, în absența transparenței bazelor de date, dezvoltatorii vor onora solicitările respective. Dacă autorul poate să exercite opt-out-ul său pentru ca elementele conținutului lui să nu facă obiectul căutărilor, mai multe persoane terțe pot să utilizeze același conținut în mod legal (întrucât au obținut o autorizație limitată), fără să fi fost apte să procedeze la acest opt-out. Se dă, în acest sens, exemplul unui autor și editor care ar putea să se opună la orice căutare privind coperta unei cărți, permițând totodată unui librar să o difuzeze on-line pentru a promova lucrarea. Ori, întrucât librarul nu este în mod concret apt să realizeze o opoziție la căutarea imaginilor, ar trebui în acest fel ca titularii drepturilor să fie atenți așa încât eforturile lor să nu fie în van. Și dacă autorul și editorul au tot interesul ca aceste coperți să circule pe rețele întrucât, în acest mod, se multiplică șansele de a vinde cartea, se poate observa, pe de altă parte, că se naște un risc suplimentar ca imaginea respectivă să sfârșească prin a fi absorbită și căutată de IA generative.

În același timp se pune în mod legitim și chestiunea de a ști dacă exercitarea opt-out-ului nu intervine prea târziu. Din 2019 milioane de imagini și de texte, protejate în baza dreptului de autor, au ajuns să hrănească aceste baze de date mai înainte ca autorii și titularii lor să aibă timp să fie informați de posibilitățile de acțiune. Pe scurt, IA generative continuă să evolueze și munca de informare e departe de a se fi terminat. Dacă opt-out-ul e realizat în mod adecvat, chestiunea care se ridică e aceea a ce s-ar întâmpla cu ansamblul algoritmilor realizați plecând de la datele de acum înainte opt-out și de la destinul datelor produse pe baza conținuturilor care au sfârșit prin a fi obiect al opt-out. Ar putea ele să fie utilizate într-o nouă căutare, de pildă, atunci când datele inițiale care au permis a le realiza sunt acum în afara câmpului căutărilor? În același mod s-ar chestiona și destinul IA intervenit înainte de realizarea opt-out-ului. Dincolo de posibilitățile de opt-out se știe azi că jocul de date utilizate pentru a antrena inteligențele artificiale nu respectă unele drepturi fundamentale, în special dreptul la respectarea vieții private și, respectiv, pe cel la protecția datelor personale. Ce se va întâmpla cu IA generate plecând de la aceste date dacă ar avea o condamnare a bazelor de date? Regulatorul american al concurenței, FTC, pare a fi răspuns la această chestiune, atunci când a decis să sancționeze întreprinderile culpabile de violarea legii privind protecția datelor personale, obligându-le să distrugă programele dezvoltate cu ajutorul datelor colectate în mod ilicit. În concluzie, dacă în teorie aceste posibilități de opt-out fac excepție de căutare mai puțin viguroasă, vom vedea că în practică obiectul însuși al directivei (UE) 2019/790 de a tinde spre un just echilibru, nu e atins în mod clar. Au rezultat deja consecințe pentru profesiile creației ce îngrijorează și apar ca suficient de importante pentru a cere aplicarea unei veritabile observații de transparență, singura garanție a unui echilibru mai bun.

Față de atari inconveniente ne-am îndrepta ca o primă soluție fezabilă spre o obligație de transparență consolidată. Și aceasta mai ales că cheia echilibrului mult căutat ar consta în exercitarea opt-out-ului de către titulari, iar diluarea devine modul în care putem fi siguri că acesta e reoptat din moment ce bazele de date sunt private și lipsite de transparență. Așadar, e imposibil pentru un titular de drepturi ori o instituție interesată spre a se întoarce contra marii majorități a actorilor dacă aceștia nu respectă reperele fixate. Această lipsă de transparență privează cadrul european de un echilibru între protecția titularilor de drepturi și interesele dezvoltatorilor de IA motiv pentru care, deci, ar trebui să fie regândit. Din această perspectivă, Artificial Intelligence Act cel mai probabil nu va trata în mod specific problema drepturilor de proprietate intelectuală, ar deveni primordial ca regulamentul preconizat să consacre cel puțin o obligație de transparență care să incumbe proprietarilor de baze de date. Absența unei atari prevederi ar reprezenta un prost semnal pentru profesioniștii domeniului creației și ar deschide un câmp de posibilități nemăsurate, până la abuz pentru dezvoltatorii de inteligență artificială.

6. Într-un fel de concluzii de etapă, se pune în consecință întrebarea dacă în fața diversității de atitudini și strategii de abordare a acțiunii pertinente din partea diferitelor state și grupări de țări, cu interese naționale și corporatiste variate nu s-ar impune totuși ideea unui cadru unificat al reglementării IA, indiferent de dilemele și impreviziunile pe care le implică. În acest context nu e lipsită de importanță teza instituirii unei agenții internaționale pentru IA, globală, neutră, care să se bazeze pe orientarea și participarea guvernelor, cu implicarea corespunzătoare a marilor întreprinderi tehnologice, a ONG, a societății civile în general, a lumii academice și a altor părți interesate. Între timp, ar fi necesar ca dezbaterile pertinente să fie structurate spre ajungerea la un consens asupra modului în care se poate reacționa și avansa, inclusiv juridic, la acest „punct de inflicțiune” tehnologică. Poate că, în așteptarea marii revoluții juridice pe care o presupune cea științifico-existențială la începuturile căreia asistăm deja, se poate recurge la o abordare treptată care să presupună mai întâi actualizarea reglementărilor existente, urmată de noi dezvoltări normative bazate inclusiv și mai ales pe colaborarea interstatală, așa încât obiectivele să fie concertate pentru ca în acest mod să se atingă rezultatele eficiente și relevante. Și în cele din urmă să se ajungă la adoptarea unor norme și reglementări comune, nediferențiate ale inteligenței (umane și artificiale), una sigură supusă unei guvernanțe responsabile și eficiente. Prin urmare, un cod juridic (universal) al inteligenței terestre, unul deja al prezentului și mai ales al viitorului!

Prof. univ. dr. Mircea Duțu
Directorul Institutului de Cercetări Juridice „Acad. Andrei Rădulescu” al Academiei Române