ChatGPT vs. masteranzii în drept. Un experiment francez demn de a fi importat

În timp ce aplicațiile inteligenței artificiale (IA) se multiplică, iar previziunile dezvoltărilor sale devin tot mai surprinzătoare, vorbindu-se chiar de o „super-inteligență artificială” și de roboți profitori de virtuțile sale, lumea universitară în general, și cea juridică în special, pare mai reticentă și mai puțin entuziastă în atari percepții. Supuse experiențelor concrete avantajele anunțate par a fi mai limitate și, în orice caz, au nevoie de explicații și impun nuanțări în evaluarea lor. Din această perspectivă, un experiment inedit de la Facultatea de Drept a Universității Paris 1 Panthéon-Sorbonne ne permite a surprinde și sublinia una din limitele utilizării inteligenței artificiale în lumea dreptului: luarea în calcul a evoluțiilor societale și a implicațiilor lor asupra reglementării juridice. Studenții masteratului de drept constituțional au cerut ChatGPT să redacteze o versiune modernă a Declarației universale a drepturilor omului, după ce ei înșiși au redactat una. Cele reieșite din comparația rezultatelor și concluziile aferente sunt edificatoare pentru ecuația drept-IA. Cel puțin deocamdată. În același timp, noi progrese ale IA anunțate de promotorii lor generează evaluări și concluzii pe măsură.

1. Cei 23 de studenți ai Master 2 de drept constituțional și drepturi fundamentale de la Facultatea de Drept a Universității Paris 1 Panthéon-Sorbonne au încercat să lămurească această „enigmă” a concurenței de la nivelul inteligenței juridice, în cadrul proiectului lor de finalizare a studiilor, organizând un „meci” inedit. Ei și-au confruntat creierele lor cu un adversar redutabil, după cum relatează cotidianul francez „Le Monde” din 19 aprilie a.c. (J. Toutain, «ChatGPT versus les étudiants en droit», le clash des intelligences pour un exercice hors norme), o inteligență artificială generativă cu resurse infinite: Chat GPT. În concret, marți 16 aprilie a.c. sub bagheta profesorului de drept constituțional Dominique Rousseau, bine-cunoscut specialist în drept constituțional, masteranzii au încercat să tragă concluziile în privința întrebărilor existențiale care îi frământă: cine va câștiga în cele din urmă bătălia inteligenței umane? Cine va scrie cea mai bună declarație a drepturilor omului a secolului al XXI-lea? Timp de circa șase luni masteranzii s-au preocupat să redacteze un nou proiect de document de acest tip, cu intenția de a confrunta rezultatul cu o versiune a textului propusă de IA. Obiectivul declarat: a pune în competiție inteligența umană și cea artificială, după afirmația coordonatorului cursului. Era pentru prima dată când profesorul emerit de 74 de ani integra inteligența artificială în cursul său de drept constituțional. „Ideea era – preciza universitarul parizian – de a inova pedagogia demitificând acest instrument”. O opțiune și un demers care ar putea apărea a se plasa împotriva curentului unei mișcări mai degrabă ostile față de ChatGPT în învățământul superior francez. Din ianuarie 2023, de când IA generativă e disponibilă în Franța, entități universitare, precum SciencePo Paris, decretaseră interzicerea utilizării ei de către studenți. O poziție nuanțată apoi, întrucât viza numai folosirea nedeclarată și justificată prin voința de a evita plagiatul și concurența neloială. În prezent, din ce în ce mai multe cadre didactice utilizează acest instrument în activitatea lor, în special pentru sarcini administrative rebarbative. „Atunci când colegii mei au aflat de proiect, a declarat prof. D. Rousseau, faptul a devenit viral în cadrul facultății. După cunoștința mea niciunul dintre ei nu utilizează ChatGPT pentru cursurile și lucrările lor.” Potrivit mitului „digital native” (copilul digitalului) noile generații ar fi a priori mai entuziaste decât cei mai în vârstă în descoperirea și utilizarea acestor tehnologii. Nu și la cursurile de drept constituțional în cauză. În septembrie 2023 profesorul emerit a fost surprins de reacția studenților când a anunțat că ChatGPT va fi primul dintre obiectele cercetării lor pentru examenul de sfârșit de an. Mulți se arătau neîncrezători, având aerul că pentru ei IA nu era o unealtă de care să se poată servi într-o formare în drept. Din punct de vedere metodologic s-a procedat astfel: fiecare student a redactat mai întâi integral propria declarație de drepturi umane, înainte de a cere IA de a și-o scrie pe a sa, plecând de la o schiță simplă și succintă. Circa 30 de ore de muncă au trebuit pentru studenți, contra numai a 30 de secunde pentru instrumentul tehnologic! Mai toți s-au declarat surprinși în mod plăcut de rezultate, în pofida „formulărilor periculoase din punct de vedere juridic”. Concluzia generală: un rezultat corect, dar puțin inovant! În articolul 4 al textului său, Chat GPT scrie, de exemplu, „Statul garantează fiecărui copil accesul la o educație de calitate”. Dar pe cine considerăm a fi un copil și pe cine nu? Această lipsă de precizie ar putea însemna că liceenii, aflați la începutul vârstei adulte, nu s-ar bucura de o atare garanție. O redactare, de asemenea, și imprecisă. Totuși, toată lumea a fost satisfăcută per global de exercițiul de analiză și de comparațiile aferente. O constatare a făcut unanimitate: Chat GPT a produs o declarație corectă, dar în materie de drepturi, IA inovează puțin. Evoluțiile societale rămân în afara logicii sale, fondată pe texte preexistente precum Declarația universală a drepturilor omului și cetățeanului din 1789. Învățăceii juriști propun, de exemplu, o protecție importantă pentru drepturile digitale și cele ale naturii. Faptul de a acorda drepturi naturii este ecoul unei recente evoluții juridice din Europa, care propune a considera ecosistemele ca subiecte de drept în scopul de a le proteja mai bine. Aceste noi noțiuni sunt cvasi absente în textul Chat GPT. Și atunci când masteranzii au desfășurat zeci de ore de dezbateri pe alegerea termenilor, IA a făcut mai degrabă economie de cuvinte. Ea e mai puțin intruzivă, mai puțin precisă și mai puțin nuanțată. Ori, în cele din urmă, mai puțin umană. „IA nu a făcut decât să repete ceea ce i s-a pus în baza sa de date, în timp ce studenții mei au redactat cu cunoștințele lor, dar și cu inima lor” a conchis profesorul coordonator al proiectului. Așadar, când s-ar putea ca IA să înlocuiască specialiștii în drept? Poate că în termeni de reflecție și de analiză niciodată inteligența artificială nu va depăși anii de cercetare; inovația tehnologică pare a rămâne un instrument din ce în ce de mai mare ajutor în pregătirea și desfășurarea investigațiilor, dar cam atât. Bătălia a fot câștigată de această dată de inteligența umană. Dar miza va fi pusă în joc și în anii viitori la același master, iar exemplul francez va deveni viral, fiind adoptat și de noi.

2. Și totuși inteligența artificială generativă (ChatGPT) a accelerat brutal istoria provocând o cavalcadă tehnologică globală ale cărei repere temporale și de conținut sunt încă greu de deslușit. Pe de o parte, cunoaștem din experiențe trecute că cel mai adesea graba și amploarea preconizate inițial au fost apoi domolite în desfășurarea lucrurilor. Pe de alta, se susține că suntem în contexte cu totul noi, așa încât evenimentele merg mai rapid decât era prevăzut. Așteptăm sosirea unei inteligențe artificiale generale (IAG)care va depăși toate capacitățile unui creier uman înainte de 2030 și la un orizont nu prea îndepărtat și a super-inteligenței artificiale (ASI). La sfârșitul lunii martie a.c. OpenAI anunța pentru 2028 lansarea supercalculatorului Stargate, capabil să permită alimentarea puterii de calcul pe care o va necesita în viitor inteligența artificială și care va avea nevoie de până la 5 megawați putere electrică spre a lucra la întreaga capacitate, devoalând astfel și fațeta ecoclimatică a problemei. O dimensiune esențială a sa, deși nu mai puțin dezbătută, dar cu implicații majore, transformatoare inclusiv juridice, este legată de faptul că revoluția IA coincide cu cea a roboticii. Giganții tehnologiei acționează spre a crea roboți dotați cu IA. După declarațiile lui Elon Musk, din 21 ianuarie 2024, în 2040 vor exista nu mai puțin de 1 miliard de roboți umanoizi. Și dacă îi credem spusele premierului britanic la conferința de la Bletchley Park (noiembrie 2023) nicio ființă umană nu va fi competitivă în fața roboților inteligenți. Apariția și impunerea roboților IA pe scena umană pe termen scurt, rapid și masiv, în următorii până în 6 ani vor genera cel puțin patru consecințe bulversante. Pentru prima dată, IA va poseda un corp și poate să acționeze în mod direct asupra lumii fizice. Apoi, roboții nu sunt produși de întreprinderi de mecanică, ci de giganții de IA, aceștia devenind astfel și mai puternici. În al treilea rând, robotica alimentată cu inteligența artificială șterge separația dintre profesiile intelectuale și meseriile manuale, astăzi distincte. Se apreciază că noul concurent al GPT4 va avea nivelul de cunoaștere al unui doctor în științe, iar conectat cu atari entități robotul lucrător va dispune de competențele unui inginer policalificat de înalt nivel. Așadar, în numai câțiva ani vom trăi înconjurați de roboți supra inteligenți, care vor dispune de dexteritatea meseriilor astăzi manuale și de competențele cognitive ale unei super inteligențe conectate la internet și la o infinitate de captatori ce le conferă o percepție a lumii pe care noi nu ne-o putem prefigura. Ei vor gestiona căminul nostru, procesele industriale și spațiul public. În fine, clasica distincție între factorii de producție, capital și muncă va dispărea, robotul fiind, deopotrivă, munca și capitalul. Ecuațiile micro și macromecanice se rescriu radical[1]. Economia cunoașterii va favoriza oamenii mai inovanți și mai inteligenți, defavorizând pe cei mulți care nu vor ști să piloteze din plin această supra revoluție digitală și creând astfel o criză socială majoră. Într-o primă perioadă, de acomodare vom putea gândi și sper că IA nu va înlocui oamenii, ci umanii care nu o utilizează vor fi înlocuiți de cei care o utilizează, dar apoi? Consecințele sunt atât de profunde și de ample încât rămân în mare parte, cel puțin azi, imperceptibile și chiar inimaginabile! Ele țin, la o primă vedere și cu titlu de exemplu, de securitatea personală (și colectivă), de ce va deveni munca umană și cum va arăta lumea muncii și actorii săi? Rolul nostru pe Terra se bulversează; așa cum se lamenta unul dintre inventatorii actualei IA, G. Hinton, „omul va deveni cea de-a doua specie cea mai inteligentă de pe Pământ, după IA”. Și în același registru să nu uităm că nu s-a văzut niciodată ca o specie mai inteligentă să se lase dominată de o alta mai puțin deșteaptă decât ea. În cele din urmă „problema problemelor” devine una de ordin existențial: care va fi guvernanța acestei lumi hipertehnologice și cum ne vom delega decizia unor mașini superinteligente și omniștiente decât, mai degrabă, procesului democratic?

3. Dezvoltarea IA și a utilizărilor sale în viitorul apropiat implică trei mari scenarii. În primul, inteligența artificială se dezvoltă, dar nu atinge stadiul de IA generală. Am trăi deci un șoc „schumpeterian” așa cum s-a întâmplat și s-a reacționat, cu unele ajustări și/sau actualizări în cazurile electricității și mașinii cu aburi. În cel de-al doilea, ajungerea la IAG s-ar traduce printr-o schimbare civilizațională, situație care ar păstra, încă, în linii mari, cadrele actuale de dezvoltare și abordare. În fine, în cel de-al treilea scenariu, s-ar ajunge la emergența unei ASI care ar provoca o schimbare antropologică, cu o marginalizare rapidă și importantă a omului. Din această triplă perspectivă scenariul nr. 2 rămâne (încă) privilegiat de către experții în materie de IA. Referitor la modul de coabitare cu inteligența artificială s-au impus cu precădere patru răspunsuri posibile, dar cu grade diferite de materializare. Primul ar fi acela că admitem superioritatea IA și acceptăm marginalizarea noastră, ceea ce ar însemna marea înlocuire cognitivă. O a doua pistă ar fi cea a neuro-augmentării; ea poate avea loc pe cale genetică, ceea ce ar implica într-una numit sens opțiunea eugenismului, ori pe cea electronică, pe calea implanturilor care ar conduce la hibridizarea celor două inteligențe. Ar fi vorba deci de avântul unei societăți de cyborgs. Ea e întrevăzută, de exemplu, de implanturile intercerebrale Neurolink. Cea de-a treia perspectivă ar putea consta în interdicția IA, adică „eutanasia” sa. O atare opțiune ridică probleme morale. Avem dreptul să împiedicăm o inteligență non-biologică de a se dezvolta întrucât ne e frică să nu fim depășiți de ea? Ultima eventualitate, apartheidul. Aceasta implică decizia de a cantona IA în ordinatoare, împiedicând-o să acționeze asupra lumii, limitându-ne, totodată, contactele și interacțiunile cu ele[2]

Toate aceste scurte, însă elocvente considerente preliminare ne arată nevoia de a ne angaja în reflecții asupra scenariilor de răspuns la dezvoltarea IA. Cum vom alinia inteligența artificială și inteligența biologică atunci când acest subiect va deveni problema cea mai importantă a istoriei umanității?

Până atunci, și revenind de la graba istoriei la realitatea concretului, se afirmă, pe bună dreptate, că orice discurs relevant asupra inovării, digitalului sau inteligenței artificiale are în uman însăși rațiunea sa de a fi. La rândul său, o viziune viabilă privind IA nu poate fi decât una „umano-centrată” care face din aplicațiile sale o unealtă, un instrument de asigurare a inovării și promovare a progresului socio-uman. Iar pentru aceasta, protejarea drepturilor umane fundamentale de impacturile negative inevitabile și uneori imprevizibile ale noilor tehnologii reprezintă un imperativ absolut, care nu se poate impune în afara reperelor etice ferme și fără o reglementare juridică riguroasă și adecvată. Cu limitele sale, o atare poziție poate fi calificată totuși ca fiind una reducționistă și ca aparținând mai ales mișcării umaniste[3]. Și aceasta pentru că mai întâi un obiect ori un serviciu digital nu e – și nu a fost niciodată – un simplu instrument. Internetul, rețelele sociale și IA sunt dispozitive socio-tehnice și politice concepute de umani. Or, prin forța calculului (intențional, matematic, etic, moral, financiar etc.) digitalul le face invizibile. Prin urmare, este nevoie de efectuarea unor calcule pentru ca umanul, care este punctul de plecare al oricărui dispozitiv digital, să rămână și punctul de sosire. Apoi umanismul pe care îl subînțelege progresul IA se aseamănă mai mult cu un umanism existențialist, axat pe individ, libertatea de a alege și responsabilitatea personală decât unul precum cel care poate fi admis în limbajul comun sinonim bunăvoinței, altruismului și, deci, preocupării binelui comun, într-o perspectivă globală și nu locală. Față de aceasta, umanismul evocat se oprește la frontierele statului și în jurul individului. Dar a afirma că există o preocupare pentru uman înseamnă a trebui să te achiți de o responsabilitate față de el. Astfel, cei care concep sisteme de IA trebuie să fie sensibili la consecințele sociale, cognitive, etice ori chiar ecologice pe care opțiunile lor tehnice le antrenează. Atunci când un imobil se prăbușește, se cercetează răspunderea arhitectului și/sau a constructorului; atunci când un algoritm favorizează desfășurarea ori amplifică multiplele riscuri psihosociale, cui revine responsabilitatea, sieși ori arhitecților săi? De aceea fundamentele științelor și tehnicilor, antropologiei și sociologiei trebuie să fie mai pe larg studiate, cu atât mai mult cu cât lipsesc din formația tehnologică. Împărțirea unei asemenea culturi comune ar putea permite ieșirea din visurile tehniciste și din amalgamurile pripite care fac din orice val de noi întrebuințări o nouă revoluție. În același timp, această responsabilizare nu poate să se facă fără o transparență crescândă a sistemelor de IA, care trebuie să treacă printr-o colaborare strânsă între reglementările internaționale și guvernare în scopul stabilirii de norme clare și accesibile în jurul dezvoltării și utilizării IA. Figura umană e la fel de bine și practică; ea reliefează o figură totemică, hegemonică, spirituală și universală în care fiecare se complace a se proiecta așa cum îi convine. Dar invocarea sa trece sub tăcere diversitatea umană care populează lumea noastră comună. Pe măsură ce IA generativă devine mai integrată în cotidianul nostru, nu se mai pot trece sub tăcere nici considerațiile etice privind condițiile de muncă și remunerația echitabilă a lucrătorilor.

În fine, noile tehnologii poluează masiv. Desigur, metodele de calcul sunt complexe, discutabile, perfectibile și diferențiate potrivit etapelor ciclului de viață. Dar tendințele sunt discutabile referitor la efectele generate, inclusiv în ceea ce privește consumul de resurse naturale și de energie, cu impactul ecoclimatic aferent. Efectul de revenire ori paradoxul lui Jevons operează din plin în privința digitalului și a inteligenței artificiale. În orice caz, într-o abordare realistă și cu o perspectivă optimistă, se impune a ne domoli îngrijorările față de tehnologii și să ne îndepărtăm de confuzia ce domnește în privința riscurilor aplicării lor. Pentru aceasta trebuie mai ales să distingem între tehnologie și aplicații; se cuvine în special a înțelege ce e prima și a ști cum funcționează ea, precum și contextul în care se desfășoară. Pentru acesta începem a ne interesa de tipul de algoritm și de date asupra cărora se execută, precum și ce tip de rezultat i se oferă. Simpla prezență a datelor cu caracter personal ridică riscul utilizării neconforme, chiar răufăcătoare, și de erori grave și impune a se acorda atenția sporită aplicațiilor în cauză[4].

4. Sistemele de și întreaga problematică a inteligenței artificiale sunt și politice din cel puțin trei perspective. Mai întâi întrucât încapsulează valori și prejudecăți ale creatorilor lor. Apoi, deoarece prefigurează și vehiculează o viziune asupra lumii. În fine, dar nu în ultimul rând, SIA devin și se manifestă ca instrumente de soft power, adică drept vectori de influență, dar tot așa și de hard power, respectiv de armament în mâinile care dispun de asemenea aplicații tehnologice pe scară mare[5].

BigTech a construit și afirmă și așa-numitele deja BigStates precum SUA și China, principalele entități de acest gen, care și structurează politica lor de putere în general, și cu contribuția tot mai importantă a giganților tehnologici și transnaționali. În centrul noului tip de rivalitate și de concurență se află sistemele de IA de utilizare militară, acționând inclusiv ca instrumente de cyberdestabilizare a democrațiilor și de promovare a conflictualității cyberhibride, în special în câmpul cognitiv și informațional. În cadrul noilor articulații de putere și capabilitate care operează în secolul al XXI-lea giganții tehnologici occidentali și echivalenții lor chinezi sunt entități hibride, în căutarea unui rol propriu în echilibrele mondiale și cu expresii adecvate în curs de constituire. Ei sunt deopotrivă întreprinderi private, dar și actori ideologici, geopolitici și militari de prim plan care întrețin legături ambivalente, aflați în raporturi de cooperare, dar și de concurență, de co- și interdependență, uneori toxici cu statele lor de referință, faimoasele BigSats. Rămasă relativ în urma cursei noilor tehnologii, UE mizează și promovează tot bine-cunoscuta sa „suveranitate normativă defensivă, pe calea valurilor succesive „de pachete” de reglementări, pe anumite tematici, de data aceasta cele pendinte de tranziția digitală și revoluția IA.

Mai multe țări europene (Franța, Germania), dar și state din alte părți ale lumii consideră că IA devine o miză de „suveranitate tehnologică” și trebuie tratată ca atare, vorbindu-se chiar de o „eră a naționalismului IA” în care „statele suverane se lansează într-o cursă pentru a-și controla destinul lor digital” (The Economist). Se evocă în acest context de aspecte vizând utilizarea și altor limbi de circulație internațională în programele dezvoltate (franceza, spaniola, în această ultimă privință fiind semnificativ acordul încheiat la 5 aprilie 2024 între guvernul spaniol și IBM), modele dezvoltate local, reguli de cumpărare pentru entitățile publice, servicii și date adaptabile în cloud ș.a.

În orice caz, dacă inteligența artificială a bulversat ori e pe cale să o facă cotidianul uman, ea transformă profund și relațiile internaționale, abolind frontierele „clasice” în profitul spațiului cyber și introducând o nouă resursă cheie, datele și folosințele pe care le produc. Ea face să apară, așadar, noi actori, giganții digitalului care se ridică la rangul de cvasistate, cu care tind să intre în raporturi particulare, tot mai strânse, inclusiv în procesele complexe de elaborare, adoptare și aplicare a normelor juridice pertinente. Nu în ultimul rând, noile tehnologii oferă capabilități superioare de confruntare militară între state, modifică perspectivele și regulile dreptului internațional umanitar și presupun regândirea răspunderii în materie. Ca un corolar, în privința influențelor globale, inteligența artificială transformă geopolitica, actorii și teritoriile de influență, desenează imperii și reglementare specifice, modifică planurile și intensitatea forțelor de confruntare, precum și care sunt mizele unei guvernanțe ale acestei tehnologii în afara normelor[6].

În așteptarea unei reacții juridice complete și adecvate la provocările prezentate de desfășurarea sistemelor de inteligență artificială față de exigențele drepturilor umane fundamentale soluția recomandată e cea de a stabili măsuri concrete de „la caz la caz”, respectiv la problemele punctuale specifice diferitelor domenii și aspecte supuse reglementării. Mai precis, se consideră că, întrucât problemele respective pot diferi de la un obiect de reglementare la altul, cea mai potrivită cale de operare e aceea de a efectua evaluări de impact asupra drepturilor omului pentru fiecare propunere (proiect) de act normativ sau de politică generală, strategie etc.

*

*        *

Experimentul masteratului francez și pătrunderea formării specializate privind impactul tehnologiilor IA asupra ramurilor de drept în special și a fenomenului juridic în general, în preocupările marilor universități europene și din întreaga lume ne arată importanța și prioritatea unui asemenea studiu și la noi. Inițiativa organizării masteratului Dreptul inteligenței artificiale, începând cu anul universitar 2024/2025 în cadrul Universității Ecologice din București se înscrie într-o asemenea viziune. O nouă formă a dreptului global și prin excelență unul al viitorului se impune în planul realităților și reclamă drept de cetate în curricula universitară.


[1] L. Alexandre, O. Babeau, Les robots ouvriers auront bientôt les mêmes capacités que les polytechniciens, „Le Figaro”, 31 martie 2024.
[2] A se vedea: J.-O. Martin, entretien, Laurent Alexandre: «Avec l’IA, la marginalisation de l’espèce humaine est absolument inévitable», „Le Figaro”, 10 august 2023; L. Alexandre, La guerre des intelligences à l’heure de ChatGPT, Editions Buchet-Chastel, Paris, 2023.
[3] J.-F. Lucas, Intelligence artificielle : «L’humain, qui est le point de départ de tout dispositif numérique, doit rester le point d’arrivée» „Le Monde”, 5 aprilie 2024.
[4] A. Jean, En matière d’IA, on doit impérativement distinguer la technologie de son utilisation, „Le Figaro”, 18 aprilie 2024.
[5] G. Grallet, interview avec A. Mhalla, Face au choc technologique, nous manquons cruellement d’hommes d’État!, „Le Point”, 6 aprilie 2024.
[6] J. Atif, J.P. Burgess, I. Ryl, Géopolitique de l’IA, Editions Le Cavalier Bleu, Paris, 2022.


Prof. univ. dr. Mircea Duțu
Directorul Institutului de Cercetări Juridice „Acad. Andrei Rădulescu” al Academiei Române