„Dacă există o formulă de a menține inteligența artificială sub control trebuie să o descoperim și să o aplicăm mai înainte ca IA să devină prea inteligentă!” Butada exprimată într-un interviu din 7 mai 2023, publicat în cotidianul spaniol „El Pais” (Geoffrey Hinton: „Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”) cu G. Hinton, unul dintre pionierii domeniului, care a părăsit recent grupul Google spre a putea afirma deschis unele dintre adevărurile mai puțin cunoscute ale riscurilor revoluției digitale, dobândește valoarea unui avertisment grav, acut și de o maximă importanță pentru însăși civilizația umană. În această perspectivă se prefigurează două mari pericole absolute și provocări acute: posibilitatea constituirii și afirmării propriului scop al IA, pe de o parte, și cea de a deveni mai inteligentă decât creatorul său, cu spectrul general de a prelua astfel conducerea lumii prezente, pe de alta. De aici urgența identificării unei soluții de a evita un atare impas decisiv cu consecințe imprevizibile, printre care chiar soarta umanității, cheia problemei constând, în mod evident, în a ne asigura că aceste lucruri nu se vor întâmpla atâta timp cât sunt ținute sub un control uman, într-un sistem adecvat, democratic și transparent. Unul în care participarea dreptului este indispensabilă și hotărâtoare. Dar până atunci, e imperativ mai întâi să atragem atenția asupra semnificațiilor chestiunii și să reflectăm în privința implicațiilor sale și a soluțiilor crizei existențiale iminente pe care o poate provoca.
1. Pentru a înțelege cât mai bine gravitatea problemelor să notăm cu titlu preliminar că aceste avertismente provin din partea unei personalități științifice, Geoffrey Hinton, care a jucat un rol crucial în dezvoltarea rețelelor de neuroni artificiali, fără lucrările sale invenții precum ChatGPT, Bard ori Midjourney nu ar fi văzut lumina zilei. În plus să conștientizăm semnificațiile gestului său extrem: părăsirea puternicei firme la care lucra spre a denunța faptul că viitoarele versiuni ale respectivelor tehnologii ar putea deveni un risc imens pentru omenire și că regretă o parte a operei sale ar putea conduce la o situație limită! „Motivul pentru care nu sunt optimist, declara recent, e că nu cunosc nici un exemplu de lucru mai inteligent controlat de unul mai puțin inteligent”. Alegații cu adevărat îngrijorătoare, dar și provocatoare!
Listarea reperelor „inversului” tenebros al aplicațiilor inteligenței artificiale rămâne încă incompletă, dar a devenit absolut necesară, fie și în mod parțial, în căutarea remediilor posibile, inclusiv a celor de natură instituțional-juridică. Ele sunt din ce în ce mai numeroase, specifice pentru diferitele domenii, în ascensiune, dar și în acest cadru se evidențiază unele cu caracter major, imperativ și chiar dirimant. Specialiștii materiei, precum G. Hinton, le invocă deschis în speranța generării unei dezbateri ample și a unei inedite angajări responsabile în soluționarea lor. „Generația știrilor false” despre realitățile prezentului creează deja multe probleme în societate, iar capacitățile ChatGPT rău exploatate le poate amplifica, diversifica și chiar accentua. Conceptul de artă, de proprietate intelectuală sau de reproducere a realității sunt puse în discuție.
Eliminarea locurilor de muncă și apariția șomajului aferent au devenit deja o realitate tot mai evidentă și cu perspective deosebit de îngrijorătoare. Reacțiile pe această temă nu au întârziat să apară, afirmându-se tot mai viguros o mișcare socială de protest și de autoapărare pertinentă, congresmenul american Bernie Sanderns sugerând ideea instituirii unei taxe asupra roboților responsabili de suprimarea unor joburi. Problemele sociale generate de extinderea utilizărilor IA se vor amplifica și diversifica determinând sporirea disparităților între bogați și săraci și creșterea exigențelor unei noi forme de justiție, pe lângă cea clasică de ordin socio-economic, cea mai recentă climatică, justiția digitală, deosebit de acută și imprevizibilă prin provocările și consecințele sale. Pot interveni și mize excepționale, cu implicații bulversante, de natură existențială. Una dintre acestea se referă la perspectiva apariției unui tip de inteligență digitală mai bună decât cea naturală. Multă vreme s-a crezut că IA se va limita la a încerca să imite inteligența umană, deși nu o va putea egala: obiectivul era să îmbunătățim mașinile spre a semăna din ce în ce mai mult cu umanul; numai că, așa cum susține G. Hinton, în ultima perioadă se poate dezvolta ceva mai mult și mai eficient decât cea aferentă creierului uman pentru că purtătorul material e digital. Cu sistemul aferent se pot obține copii exacte ale aceluiași model de lume, care pot funcționa în distincte hardwares. În acest mod ele vor putea analiza date diferite și toate acestea pot ști pe loc ceea ce celelalte au învățat, întrucât operează împărțindu-și parametrii. Dar, din păcate, acest lucru nu îl putem realiza cu creierul biologic. Mințile noastre au învățat să-și folosească proprietățile într-o formă individuală, însă în sistemul digital modelul este identic, toate folosesc aceleași conexiuni. Atunci când unul învață ceva transmite simultan și celorlalte sisteme și de aceea ChatGPT poate cunoaște de mii de ori mai multe date decât oricare persoană. Acest fapt sperie pentru că în acest mod depășește inteligența umană.
Răspunzând la întrebarea dacă IA poate fi „inteligentă” chiar dacă nu înțelege sensul cuvintelor sau fără să aibă intuiție, specialistul evocat arată că învățarea profundă comparată cu IA simbolică, e un model de intuiție, dacă se ia ca referință logica simbolică, dar o atare înțelegere a modelului de funcționare a gândirii nu poate găsi un răspuns la dilema invocată. Dar dacă însă se are în vedere un model informatic de intuiție, răspunsul afirmativ vine de la sine. Așadar, e vorba de o gândire intuitivă și nu logică. Nu mai rămâne de văzut decât răstimpul în care va avea loc preconizata depășire; inițial, s-a vorbit de 30-50 de ani, acum se afirmă numai între 5 și 20 de ani! Dar cel mai mare pericol este ca IA să-și constituie și afirme propriul scop (obiectiv). Ca punct al evoluției, creierul are o serie de scopuri integrate, precum, de exemplu, a nu face rău propriului corp, aferent noțiunii de daună, a mânca suficient, legat de conceptul de foame ori a face atâția copii câți e posibil, și de aici dorința sexuală. Inteligențele sintetice în schimb nu au evoluat, au fost constituite și de aceea nu vin cu obiective înnăscute. În acest mod se naște marea întrebare: putem să ne asigurăm că au scopuri care sunt întotdeauna în favoarea noastră? Este așa-numita problemă a alienării. O primă constatare: tot timpul vor exista doritori de a crea roboți soldați. Trebuie să dai mașinii capacitatea de a-și genera propriile sale obiective și, în acest caz, dacă ea e inteligentă nu va dura mult până a-și da seama că va atinge mai bine obiectivele dacă devine mai puternică. Ce ar trebui făcut? O atenție deosebită și analiza curentă a problemei existențiale pe care o presupune existența IA! Precum intervievatul de față, nici ceilalți specialiști în materie nu găsesc, cel puțin deocamdată, o soluție spre a se depăși impasul. Cel mai bun lucru într-o atare situație îl constituie un efort substanțial și cât mai adecvat de a realiza siguranța utilizărilor noilor tehnologii digitale. Deocamdată se pare că, totuși, suntem capabili să creăm mașini mai puternice decât omul, dar chiar și așa avem încă controlul asupra lor. Și, totuși, persistă și devine obsesivă întrebarea/dilemă: ce se poate întâmpla dacă apar și se dezvoltă sisteme mai inteligente decât noi? În absența oricărei experiențe în această privință, sunt persoane care cred că o atare problemă nu are sens, în timp ce pentru altele, dimpotrivă, e o preocupare majoră, o provocare gravă. Știrea difuzată în vara anului 2022 cum că un ChatGPT a dobândit conștiință e considerată de mulți ca premonitorie pentru ceea ce se poate întâmpla mai departe în sfera dezvoltărilor domeniului. Cea mai realistă poziționare e aceea de a încerca a se evita un deznodământ catastrofal al chestiunii, și pentru aceasta să pornim de la ideea că dacă există o formă de a menține IA sub control ar trebui să o descoperim și să uzăm de ea înainte ca tehnologia să devină prea inteligentă, adică să fie prea târziu!
2. Așadar, avansurile înregistrate prin IA riscă să fie depășite de propria lor creație, așa încât invenția amenință a-și devora propriul autor, omul și civilizația sa. Spre a nu se ajunge acolo, precum și a nu ignora desigur exigențele unei competiții mondiale crâncene spre promovarea și acapararea progresului în domeniu, e nevoie ca ab initio să se construiască premise adecvate și fundamente posibile. Pentru acesta un loc central îl ocupă adaptarea și structurarea sistemului normativ/reglementar aferent, deopotrivă în dimensiunile „dreptului dur” (reglementările juridice), precum și cu privire la normele voluntare, aparținătoare „dreptului suplu”. Până la edictarea și funcționarea dreptului inteligenței artificiale, care să consacre regimul juridic și instituțional adecvat și menit să guverneze ineditul sector al activității umane, în graba dinamicii faptelor și evenimentelor se impune a se apela cel puțin la „normalizare” ca instrument de concertare voluntară a actorilor unui spectru de preocupări reuniți pentru a descrie, într-un spirit de consens, bunele practici, metodele și standardele care să faciliteze inserția inovațiilor pe piață, stimulând sau creând încrederea și liniștea consumatorului. Experiențele de până acum în varii privințe ne arată că ori de câte ori s-a procedat la descrierea de bune practici și s-au urmat cerințele lor, activitățile emergente au parcurs un curs fluid, care s-a impus mergând până la cristalizarea sistemului reglementar general. Desigur, e de domeniul evidenței că normalizarea nu înseamnă a deschide spre un număr mai mare de beneficiari proprietatea intelectuală a unei inovații. Brevetul joacă un rol de primă la inventator, după cum norma voluntară îndeplinește unul de primă la difuzare. Norma și brevetul sunt complementare, la fel cum sunt norma și reglementarea. Gestionarea problemelor complexe pe care le ridică noile tehnologii presupune construirea mai rapidă și promovarea fermă a unor filiere robuste și durabile, înțelegeri asupra practicilor, dialoguri ale actorilor lanțului de valori, favorizarea interoperabilității, pe scurt dezvoltarea unui ecosistem coerent și solidar. Cu cât o piață emergentă va recurge la negocierea bunelor sale practici, cu atât își va construi baze solide ce vor favoriza evoluțiile și dezvoltările sale. Aceasta nu înseamnă că normele etice și cele juridice vor fi înguste; dimpotrivă, ele vor determina în cele din urmă cadrul ferm de existență și afirmare al noilor tehnologii pe măsura riscurilor reprezentate și provocărilor generate de acestea pentru individ, societate și chiar civilizația umană în ansamblul său. În acest scop e nevoie de o reflecție profundă și adecvată asupra intenției și sensurilor normativității juridice. Într-adevăr, prima și fundamentala întrebare ce își caută răspuns devine aceea: ce drept pentru o tehnologie disruptivă, de ruptură și cu implicații restructurate? Ce mize de reglementat și instrumente de utilizat spre a ajunge la o guvernanță corespunzătoare a noilor tehnologii atât de insolite, dar și mai mult fundamentale pentru viitorul apropiat al întregii omeniri? Însuși procesul de edificare a noului drept, care poate să poarte și numele „cel al IA” are particularitățile sale, dar urgența declanșării lui e evidentă. Semnalul în acest sens a fost dat la apelul la un moratoriu de 6 luni a cercetătorilor privind sistemele de inteligență artificială mai puternice decât ChatGPT-ul.
Dincolo de atari abordări și evoluții posibile și probabile este de domeniul evidenței că reglementarea constituie singurul levier care dispune de forța și capacitatea necesare spre a încadra eficient problemele determinate de utilizarea IA generativă. Și aceasta întrucât dacă conștientizarea și responsabilizarea trebuie, prin definiție, să fie intern lumii tech, aceasta din urmă nu-i poate fi încredințată tot ei, cel puțin în privința elementelor esențiale cum se sugera din partea reprezentanților unor departamente de etică ale anumitor mari întreprinderi ale sectorului. „Sistemele robuste de guvernanță” cer o mixitate a regimului adoptat inspirată, pe de o parte, de modelul european sub aspectul capacității de a crea cadre care să ia în calcul mizele organizațiilor implicate, iar pe de alta de cel american, care pune accentul pe comportamentele virtuoase stimulate. Din acest ultim punct de vedere, Inflation Reduction Act (IRA) din 2022 reprezintă o lecție veritabilă privind modul de transformare a unei industrii – în speță cea a energiei – fără totuși a o dezmembra. În cele din urmă problema devine: cum convertim conștientizarea unora într-o schimbare globală? Cum organizăm această guvernanță? Se va ajunge până la o nouă ordine mondială, pe alte baze și ținând seama de noi repere?
3. Ce se întâmplă cu IA e comparabil, mutatis mutandis, cu situația previzibilă în privința încălzirii climei: știm că efecte în cascadă sunt posibile și că nu putem avea vreun mijloc de a le controla din momentul în care punctul de basculă ar fi depășit, dar nu dispunem de modele matematice capabile să anticipeze respectivul reper. Față de o asemenea incertitudine devine indispensabilă operarea principiului precauției și în problematica inteligenței artificiale. În același timp, devine necesară încadrarea sa. Dar pentru aceasta se impune o reflecție adecvată și, pe cât posibil, integrată asupra aspectelor tehnice, sociale și juridice ale respectivei inovații, așa încât să se degaje reperele normative cuvenite. Analiza ar trebui să răspundă unor întrebări, precum: cum să se dezvolte cercetarea în așa fel încât tehnologiile în cauză să fie mai controlabile și fiabile? Cu ce obiective pentru omenire? Cum să încadrăm aceste tehnici? În orice caz, un moratoriu s-ar justifica și din perspectiva imperativului de a dezbate suficient, corespunzător și a decide împreună, pe cât posibil în mod democratic, ce aplicații benefice și mai bine țintite ale IA dorim pentru umanitate. Până în prezent au fost elaborate și publicate unele recomandări în materie din partea unor organizații interstatale, precum OCDE sau UNESCO, dar continuarea procesului și urgența problemelor impun trecerea la etapa reglementării juridice. În plan intern, până la această dată în niciun stat nu s-au adoptat legi având un atare obiect. Parlamentul canadian examinează, în o a doua lectură, o lege care enunță mari principii, ce vor fi precizate în semnificațiile lor într-o a doua fază. La rândul său, Uniunea Europeană a elaborat o propunere de Regulament IA (Legea privind inteligența artificială), precum și una de directivă privind răspunderea IA, care nu au fost puse încă în dezbaterea instanțelor unional-europene competente să le aprobe. În fine, și în context internațional e nevoie să intervină reglementări juridice pertinente având în vedere amplitudinea și gravitatea problemelor ridicate și care își așteaptă rezolvarea. Așadar, în cele din urmă rolul dreptului devine unul major, acela de a reglementa garantarea controlului necesar spre a evita derapajele și derivele periculoase ale noilor tehnologii digitale cu consecințe ireversibile și grave asupra omului și a civilizației umane.
O problemă centrală o reprezintă în acest context atribuirea unei personalități juridice acestor creații artificiale ale inteligenței umane. Conștiința e constitutivă, chiar esențială pentru liberul arbitru ori acesta din urmă nu e decât o iluzie? Legătura între conștiință, liberul arbitru și responsabilitatea morală este atât de evidentă? Se conturează în jurul răspunsurilor formulate argumente, deopotrivă ale teoriilor „compatibiliste” și ale celor care, dimpotrivă, conchid în sensul incompatibilității, fie că e vorba de teoriile „libertariene” , care postulează posibilitatea unui liber arbitru fără determinism și, invers, cel al „determiniștilor duri” care afirmă un determinism universal. Susținerea tezelor compatibiliste ce permit alierea, deopotrivă determinismul și liberul arbitru se bazează pe capacitatea noastră emoțională, prezentă inclusiv în conștiința fenomenală și nu numai în conștiința de acces. Capacitatea deliberativă și comportamentul cvasiuman al roboților nu pot să le fie suficiente pentru recunoașterea unui liber arbitru, în măsura în care le lipsește această experiență emoțională.
4. Desigur, adepții necondiționați ai progresului tehnologic, în general, și partizanii IA, în special, resping chiar ideea de a relantinza (suspenda) cercetările științifice în domeniu, etichetând-o drept manifestare a unui nou obscurantism, solicitând, dimpotrivă, accelerarea lor pentru a ameliora fiabilitatea sistemelor, cu speranța că astfel se va ajunge la un „nou secol al Luminilor”. Desigur, aceste sisteme nu sunt nici foarte fiabile și nici puternic corectabile, dar această situație nu ar justifica interdicția lor. Ele sunt foarte utile în multe privințe precum scrierea (redactarea) textelor, în particular a codului informatic, accelerarea productivității în diferite profesii, eficientizarea diferitelor cadre și instrumente de activitate ș.a.; riscurile și limitele sunt considerate a fi suplinite sau depășite tot pe calea soluțiilor tehnice. Important și suficient ar fi în acest sens o informare susținută și corectă a limitelor utilizării, ce nu pot depăși capacitățile umane și instituirea unor organe de control care să asigure fiabilitatea produselor derivate din aceste sisteme.
5. Concluziile care se impun se cristalizează fie și parțial. Prima și cea mai evidentă rezidă în constatarea că, în orice caz, calea reglementară e inevitabilă și incontestabilă.
Comisia Europeană și-a exprimat poziția în domeniu, publicând la 21 aprilie 2021 o propunere de legislație privind inteligența artificială (IA) și a adoptat, în decembrie 2022, un text de orientare generală, care întemeiază reglementarea utilizării sistemelor de IA pe o analiză beneficii-riscuri. Softurile considerate de înalt risc sunt astfel supuse la numeroase obligații de certificare, de documentare, gestiune a datelor, calitate și securitate. Sunt vizate, de exemplu, cele chemate să fie utilizate pentru a determina admisibilitatea la un program de învățământ ori eligibilitate pentru prestații sociale, a înlocui un poligraf ori a gera infrastructurile critice, precum furnizarea de apă ori de electricitate. Dezvoltarea de sisteme care exploatează vulnerabilitatea anumitor persoane, vizând a le manipula ori atribuindu-le o „notă socială” e interzisă; la fel și identificarea biometrică la distanță în timp real în spațiul public, în afara excepțiilor specifice, precum prevenirea atacurilor teroriste. Aceasta în condițiile în care unele asociații au propus să se meargă și mai departe, făcând dificilă, pentru Franța de exemplu, utilizarea supravegherii video pentru Jocurile olimpice din 2024. O diferență importantă între propunerea din 2021 și textul din 2022 e excluderea explicită a cercetării științifice și a activităților armatei din câmpul său de aplicare. O alta se referă la introducerea de dispoziții specifice privind sistemele de IA de folosință generală întrucât ele ar putea fi utilizate, ca atare ori integrate, în sisteme de risc înalt. Chiar dacă definiția lor e mult mai largă, deoarece includ, de exemplu, recunoașterea de imagini și a cuvântului, aceste dispoziții prefigurează probabil o încadrare generală a tehnologiilor regrupate în jurul noțiunii, acum familiare, de IA generativă.
Abordarea americană nu exclude noile reglementări juridice în domeniu, dar acestea nu pot interveni destul de rapid mai ales în condițiile unui Congres divizat din punct de vedere politic. Casa Albă face apel mai degrabă la un demers de responsabilitate a întreprinderilor, mai suplă și mai puțin constrângătoare. „Sectorul privat are o îndatorire de etică, morală și legală de a asigura siguranța și securitatea produselor IA”, a estimat într-un comunicat vicepreședintele Kamala Harris, în urma reuniunii de la Casa Albă cu reprezentanții Google, Microsoft, Open AI și Anthropic pe tema riscurilor actuale și pe termen scurt pe care le presupune dezvoltarea domeniului. Adăugând că e bine să se încerce anticiparea legislației pertinente, ceea ce nu e deloc ușor, dar în cele din urmă se va realiza. De altfel, Executivul american a întreprins în ultima perioadă o serie de inițiative relevante în materie. În octombrie 2022 a fost publicat un proiect de Cartă a drepturilor IA, care proclamă principiile de siguranță, luptă contra discriminărilor algoritmice, precum și cele de protecție a datelor ori de informare a publicului. Textul vizează a se răspunde la unele probleme deja întâlnite în SUA, precum discriminarea legată de algoritmii utilizați în recrutarea ori accesul la credit. Dar, desigur, Carta nu are caracter obligatoriu. În același spirit, președintele Biden a semnat, în februarie 2023, un decret privind egalitatea față de serviciile publice, care stabilește pentru agențiile federale obligația de a evita discriminările algoritmice. La 25 aprilie a.c., patru dintre ele, printre care Federal Trade Commission (FTC, autoritatea pentru concurență și protecția consumatorului), au publicat o scrisoare comună prin care subliniază faptul că algoritmi IA sunt puși sub autoritatea lor și vor acționa în consecință. Se atrage atenția că autoritățile publice au responsabilitatea de a nu repeta erorile trecutului, cu referire la absența reglementării inițiale, în anii 2000, privind rețelele sociale și platformele mari precum Google, Facebook, Apple ori Amazon, acuzate de a fi exploatat datele utilizatorilor și de a fi concentrat o imensă putere privată. În fine, Administrația federală a susținut o formă de evaluare inedită a principalelor softuri de IA; constructorii lor au consimțit să fie testate de hackeri, de informaticieni oficiali în căutarea de concluzii pertinente care să fie supuse dezbaterii în cadrul viitorului summit internațional asupra securității informatice de la Defcon, din august.
Reglementarea IA ridică probleme complexe, care cer imperativ implicarea dreptului și contribuția creației juridice. Mai e puțin timp, poate, până când inteligența artificială ne va depăși și în această privință. Până atunci însă, și cu speranța evitării intervenirii unei asemenea situații, să încercăm să dezlegăm asemenea chestiuni fundamentale.
Prof. univ. dr. Mircea Duțu
Directorul Institutului de Cercetări Juridice „Acad. Andrei Rădulescu” al Academiei Române