Justiția în fața inteligenței artificiale. Avantaje și riscuri ale unei revoluții civilizaționale

Cea de-a doua ediție a Paris Legal Makers reunește, la 23 noiembrie a.c., în Palais Brongniart din capitala Franței, personalități ale lumii economice și juridice, juriști, reprezentanți ai marilor întreprinderi, filosofi și experți în securitate spre a dezbate tema Inteligența artificială: un viitor promițător, un angajament responsabil. Organizat de Baroul din Paris evenimentul internațional își propune să pună în discuție și să caute răspunsuri la întrebări precum: inteligența artificială (IA) își va ține promisiunile furnizării unei justiții mai accesibile, mai previzibile și mai „juste”? Cum poate justiția, care e fruct al unui act uman și singular, să se lase modelizată, chiar normalizată de algoritmi? Individualizarea răspunsului judiciar e compatibilă cu logica implacabilă și încăpățânată a instrumentului predictiv? Când judecă, plasat în fața acestei IA reușește mai bine a agrega și restitui toate datele necesare luării deciziei? Toate litigiile se pretează la o justiție algoritmizată? Chestiuni fundamentale pentru impactul așteptat al noilor tehnologii asupra actului de înfăptuire a justiției, care își caută răspunsuri urgente și profunde. Unele au fost deja prefigurate în contextul dat de Raja Chatila, profesor emerit de IA, robotică și etică a tehnologiilor la Sorbonne Université, invitat la masa rotundă cu tema Procesul și IA, având în centrul discuțiilor problema utilizării „etice” a algoritmilor în materie judiciară contorsionată de cea a autorității pe care se întemeiază justiția (L. Neuer, L’intelligence artificielle et la justice font-elles bon ménage?, „Le Point”, 18 noiembrie 2023).

1. Un prim aspect abordat în acest context s-a referit la sensul în care, cu adevărat IA poate contribui la ameliorarea justiţiei, pornind tocmai de la promisiunile deja afișate de a ne oferi una mai „justă” și, în orice caz, mai rapidă, avantaj deloc de neglijat.

În opinia sa profesorul R. Chatila are ca punct de plecare constarea că justiția e înfăptuită de ființe umane în cadrul unei instituții care asigură în mod normal echitatea și legile care sunt interpretate și aplicate în contextul precis al cauzei supuse judecății, ținând seama de istoria persoanelor implicate și de circumstanțele precise ale actelor comise. Din această perspectivă se precizează că una din utilizările IA ar permite detectarea tendințelor ori prejudecăților anumitor judecători de a pleca de la analiza hotărârilor judecătorești din trecut. Se vor putea astfel înțelege mai bine cauzele și a corija aceste tendințe. Totuși, va trebui să se țină cont, în efectuarea analizelor, de elementele contextului, știut fiind în special că abordarea de caz poate fi diferită de la o instanță la alta. Afirmația că odată cu „IA justiția va fi mai justă” nu e convingătoare; ea se sprijină în mod esențial pe studii, care au fost criticate, ce demonstrează că umorile trecătoare ale unor judecători, după momentul zilei, le influențează deciziile. În privința faptului că dacă prin utilizarea noilor tehnologii actul de justiție va deveni mai rapid efectuat, se remarcă cum că câștigul de timp, mai ales în cauzele mai simple, e argumentul invocat cel mai adesea spre a justifica utilizarea IA în justiție. Una e însă să dotezi justiția cu mijloace mai eficiente pentru a lucra, precum softurile mai sofisticate și mai puternice care permit reunirea mai rapidă a elementelor necesare luării deciziei, dar cu totul alta e a te îndrepta spre o justiție automatizată, cu decizii astfel realizate și cu riscul de a abandona principiile sale fundamentale, în special principiul contradictorialității.

2. O problemă se ridică și din aceea că justiția algoritmizată poate să inspire, de asemenea, judecătorului o reticență în a se demarca de majoritate și a formula în acest sens o opinie separată, ceea ce nu s-ar înscrie în perspectiva unei justiții mai juste. Precizările specialistului în robotică merg înspre concluzia că magistratul ar putea fi condus să se justifice dacă nu urmează recomandarea instrumentului digital, chiar dacă știe că mașina se limitează la a recomanda și că ea nu decide. El ar putea, totodată, să aibă tendința de a crede că sistemul știe mai mult decât el și ar trebui deci să țină seama de această „prejudecată a automatizării”. Dar responsabilitatea sa e angajată în toate cazurile. Cum însă nici IA nu e scutită de prejudecăți, întrucât se sprijină pe date produse de ființe umane, se ridică întrebarea dacă e „echipată” spre a elimina aceste imperfecțiuni și a păstra imparțialitatea. Chestiunea prejudecăților în datele și în mecanismele de decizie ale IA e reală; se poate ajunge la o evaluare care să nu fie imparțială, dar aceste imperfecțiuni pot fi corectate tot cu ajutorul mijloacelor umane! Dimpotrivă, dacă toate instanțele ar utiliza o IA astfel afectată, întregul sistem judiciar ar deveni „virusat”! Din păcate, cel puțin până acum, nu dispunem de instrumente eficiente spre a repara aceste prejudecăți și efectele lor asupra datelor produse. Software Compas (Correctional Offender Management Profiling for Alternative Sanctions) ne oferă o perfectă ilustrare. Acest instrument, utilizat în statele americane New York și California, vizează să prezică riscurile de recidivă ale unui condamnat. El formulează o estimare a riscului de recidivă al unei persoane plecând de la răspunsurile sale la un chestionar privind locul de reședință, vârstă, antecedente judiciare și anturaj. Or, utilizat respectivul sistem a condus la discriminări, stigmatizând populațiile neagră și hispanică. Toate acestea militează pentru încadrarea folosirilor inteligenței artificiale în domeniul justiției și pentru necesitatea de a verifica întotdeauna validitatea ieșirilor lor.

3. O altă problemă vizează situația ședinței (publice), element cheie în procedura judiciară; mai exact, ne putem permite să eclipsăm fundamente ale acesteia, precum: ritualul procesului, spațiul-timpul său simbolic, solemnitatea, autoritatea dar și confruntările umane, emoția și imprevizibilul în profitul răcelii mecanice a unei mașini? Se ridică în acest fel o altă chestiune fundamentală: ce este cu adevărat justiția? Ce reprezintă exercițiul său? Într-adevăr, ea nu e numai un rezultat, este, de asemenea, un proces fundamental pentru respectarea deciziei adoptate de instanțe. Va fi respectată ea pentru că există acest mediu, care stabilește și definește modul în care se înfăptuiește justiția. Dacă nu, ea va fi banalizată, precum faptul anodin de a primi o amendă ca sancțiune a unei parcări auto într-un spațiu nepermis! Problema autorității pe care se întemeiază justiția se situează în centrul unei atari reflecții. Dacă vom încredința justiţia mașinii, îi vom cere să fie infailibilă și acesta va fi soclul autorității sale. Iar dacă va ajunge să se înșele, întregul sistem judiciar se va prăbuși și odată cu el încrederea societății în justiție! Or, mașina nu va fi niciodată infailibilă!

Dacă justiția nu trebuie să fie cea a mașinii, ea nu se cuvine a fi nici cea a emoției și a empatiei. Ea rezultă (sau ar trebui!) din înțelepciune, din discernământ, încearcă mai întâi să înțeleagă înainte de a judeca, așa încât hotărârea pronunțată să fie acceptată de toți. Pentru așa ceva însă, inteligența artificială nu e capabilă, întrucât nu trăiește în lumea reală a oamenilor. În același context, unii se întreabă dacă ChatGPT poate să se substituie discursului/cuvântului care fac parte integrantă din procesul judiciar, iar răspunsul scurt și condensat e acela conform căruia cel al mașinii rămâne gol de sens, întrucât sistemele de IA nu înțeleg niciodată sensul termenilor pe care îi utilizează. Sensul cuvintelor este și rămâne cel pe care li-l dau oamenii și numai oamenii.

4. O temere care crește deopotrivă în rândul profesioniștilor domeniului și în cel al opiniei publice, în general, e legată de faptul că dacă nu cumva odată cu aplicațiile inteligenței artificiale se poate ajunge ca justiția să fie „guvernată” de societăți private. În orice caz, dacă justiția e tributară mașinii, cei care concep și alimentează instrumentele IA ar putea influența, și în mod indirect controla procesul judiciar, chiar rezultatul său, fie și fără intenția explicită de a o face. Dacă există o prea mare dependență față de tehnologie, justiția, care e unul dintre soclurile societății, ar putea să se găsească fragilizată și amenințată.

S-ar putea replica, desigur, printre altele, că ea e, înainte de toate, o chestiune de istorii umane individuale. De aici se ridică întrebarea: ce limite trebuie să se pună spre a se asigura (deplin) o utilizare luminată și „etică” a algoritmilor în materie judiciară? Indiscutabil, sistemele de inteligență artificială pot aduce elemente care informează, de exemplu, cu jurisprudența, plecând de la date asupra unor cauze similare ori de la texte de lege pertinente. Tot așa ele pot ajuta părțile să pregătească mai bine procesul în care sunt implicate și să aplice legea. Dar această folosință va trebui să fie efectuată întotdeauna utilizându-se sisteme certificate și sub control uman. Mergându-se și mai departe, se consideră că utilizarea algoritmilor ar trebui limitată, cel puțin deocamdată, la a colecta informații spre a stabili veridicitatea faptelor, a căuta textele de lege și jurisprudența pertinente, dar nu s-ar impune, în nicio situație, a lăsa pe seama algoritmilor să determine vinovăția unei persoane, să desemneze un responsabil, să fixeze o pedeapsă ori o indemnizație, pe scurt, a fabrica o hotărâre. Desigur, cum spunea un eminent jurist francez „judecata e o îndoială care decide”, iar umanitatea judecătorului e întoarsă spre „umilitatea” sa. A înlocui justiția umană printr-un instrument, care lipsește în mod ontologic de „umilitate” nu devine, în principiu, ceva de ordinul utopiei? Răspunsul profesorului Raja Chatila, în încheierea interviului evocat, vine rapid și e tranșant: e de ordinul distopiei! Mașina de calcul poate produce și compara mai bine probabilitățile, în timp ce îndoiala umană e o punere în discuție, care e un drum spre adevăr.

5. Fără îndoială că problematica a preocupat și pe organizatorul evenimentului internațional, respectiv Baroul din Paris al cărui decan (bâtonnier) vedea în ziua de 23 noiembrie una consacrată stabilirii „bazelor unei inteligențe colaborative între om și mașină, în respectul eticii și al responsabilității” [N. Bastuck, L’intelligence artificielle s’invite au Paris Legal Makers (PLM), Entretien avec Me Julie Couturier, bâtonnière du barreau de Paris, „Le Point”, 7 iulie 2023]. Pentru avocați inteligența artificială e percepută ca a bulversa lumea muncii juridice, ridicând întrebări radicale de genul: va însemna acesta sfârșitul proceselor judiciare? Ce provocări lansează profesioniștilor dreptului? Dar lumii economice? Valorilor noastre democratice? Explicând alegerea temei, decana ținea să precizeze că este vorba de un subiect major al anilor ce vor veni, atât pentru profesia de avocat, cât și pentru societate în ansamblul său. Inteligența artificială va metamorfoza cotidianul fiecăruia dintre noi și modul nostru de lucru, ceea ce face naturală abordarea sa. În plus, PLM are vocația de a intensifica atractivitatea juridică a Parisului, demonstrând întregii lumi că poate fi un cadru de inovație, de influență și de perspectivă de înalt nivel. Marea dilemă o constituie aceea a amenințării pe care IA o poartă asupra profesiilor juridice și dacă nu cumva ChatGPT nu ar anunța „moartea programată a avocaturii și a altor profesii reglementate”. În această privință decana pariziană are răspunsuri nuanțate, pline de realism și chiar impregnate de optimism. Cu o oarecare undă de ironie, J. Couturier amintește că deja în urmă cu 15 ani se prezicea sfârșitul avocaților prin recursul la legaltech și iată că ei există și astăzi! Profesia se află din nou la răscruce, dar cererea de justiție, din ce în ce mai mare, trebuie să conducă la o adaptare rapidă a profesiilor la exigențele noilor tehnologii, în interesul justițiabilului și în cel al unei bune administrări a justiției. Desigur, IA ne-a obligat pe toți să reexaminăm sensul misiunii încredințat de lege și societate și asumate de fiecare în parte, a analiza piețele pe care avocații sunt chemați să promoveze o valoare adăugată superioară și, nu în ultimul rând, să aleagă și să discearnă cantitatea de date pertinente tot mai amplă și mai diversă.

Pe atari teme, comisia prospectivă a Baroului din Paris a lansat o mare reflecție din concluziile căreia se vor alimenta dezbaterile ulterioare, inclusiv cele ale evenimentului central anunțat. Pentru cei 35.000 de avocați ai capitalei franceze IA reprezintă, deopotrivă, o bogăție și o provocare; un mare plan de digitalizare a fost lansat în timpul crizei sanitare în scopul reducerii disparițiilor, mergându-se spre o mutualizare a instrumentelor inteligenței artificiale. În fața perspectivei de a ne îndrepta spre o lume judiciară dezumanizată în care avocați și magistrați vor furniza datele lor unei mașini spre prelucrare și decizie, iar IA va deposeda practic juristul de funcția sa de consiliere și de judecată, poziționarea devine nuanțată. Deocamdată „avocata avocaților” speră că nu se va ajunge la așa ceva, cu atât mai mult cu cât i se pare că se produce inversul. Adică, permițându-le să se despovăreze de sarcinile cele mai cronofage și de slabă valoare adăugată, inteligența artificială va face ca actorii dreptului să dispună de mai mult timp spre a se concentra asupra misiunilor de consultanță. Inteligența umană va fi întotdeauna mai puternică decât algoritmurile, oralitatea, contactul avocat-client ori avocat-magistrat nu sunt gata să dispară, ci, dimpotrivă, devin prioritare acum.

Desigur, cel puțin deocamdată, impactul IA rămâne variabil în raport cu nivelurile și formele de manifestare ale profesiei, prin natura sa, demersul în fața Consiliului de Stat ori în cea a Curții de Casație, unde accentul e pus pe controlul de legalitate, noile tehnologii ajută mai puțin, prioritate având creativitatea avocatului. Într-adevăr, cum preciza actualul președinte al Ordinului Avocaților de pe lângă cele două instanțe supreme (de contencios administrativ și judiciar) „Dacă inteligența artificială permite, într-o anumită măsură, să opereze clasamente, concilieri ori, și mai mult, să faciliteze orientări în circuitele procedurale, ea nu știe să redacteze un motiv de casare și nici o hotărâre” (Entretien avec Maître François Molinié, „Dalloz Actualité”, 15 noiembrie 2023). Într-adevăr, pentru un atare avocat căutarea jurisprudenței nu e alfa și omega în prezența sa în fața judecătorului dreptului. Însă, e evident că autoritățile publice au un rol de jucat și un cuvânt important de spus în acompanierea și încadrarea acestei tranziții.

Sursă de erori, de dezinformare, de cyberatacuri ori de atingeri aduse vieții private, ChatGPT se află deja în centrul polemicilor și al contencioaselor potențiale. Așadar, o veste bună pentru profesie ar fi aceea referitoare la apariția de noi piețe pentru asistență și reprezentare juridică. Implicațiile legale sunt majore în termeni de proprietate intelectuală, de responsabilitate, pentru protecția datelor etc. Avocații trebuie să sesizeze aceste noi câmpuri de acțiune și să le valorifice potențialul astfel oferit.

Referitor la programul concret al celei de-a doua ediții a Paris Legal Makers acesta cuprinde două conferințe plenare: a) cea de dimineață cu tema IA: un risc sistemic ori încă o revoluție?, care pune accentul pe schimbările posibile ce provoacă disponibilitatea de a raționa și de a crea, experții dezbătând riscurile de pierdere a controlului uman asupra mașinilor, precum și mijloacele de a le evita; b) cea de închidere, Viitorul IA: cum să conciliem ambiția tehnologică și mizele etice?, înțelege să propună piste spre a construi un viitor etic, fără a ceda temii și fără a afecta progresul colectiv. Totodată, trei mese rotunde vor pune în discuție aspecte ale confruntării IA cu riscurile generate și oportunitățile oferite pieței muncii, evaluarea rolului IA generative și predictive în procesul judiciar și în justiție, în general, și procesul creației literare și artistice în era IA.

*

*       *

Avocat, format la Princeton și Columbia University, Brad Smith, președintele Microsoft, plasa inteligența artificială generativă în istorie precum o revoluție industrială comparabilă cu cea care a antrenat apariția tiparului, a căilor de fier ori a electricității. Un instrument care ne va ajuta să fim mai creativi, mai eficienți și la ameliorarea productivității și care poate contribui la reglarea anumitor probleme urgente ale epocii noastre (descoperirea de noi medicamente, îmbunătățirea asistenței medicale sau înțelegerea chestiunilor de mediu). Cu o singură condiție: oamenii trebuie să rămână la comanda inteligenței artificiale! (Brad Smith, Les humains doivent rester aux commandes de l’intelligence artificielle, interview, „Le Point”, 19 noiembrie 2023). Situație care, în ultimă instanță și cu particularizările cuvenite, e valabilă și pentru lumea juridică.

Pus sub înaltul patronaj al Președintelui Republicii Franceze, organizat de Baroul din Paris, Paris Legal Makers e un eveniment la întretăierea lumilor juridică, antreprenorială, politică și academică și care, prin temele abordate, precum cea a ediției din acest an (consacrată viitorului promițător și angajamentului responsabil al inteligenței artificiale în distribuirea justiției), se constituie un adevărat „laborator de idei” și reflecții profunde. Cu gândul la utilitatea unui demers de acest gen și la capătul considerațiilor exprese de mai sus nu ne mai rămâne, pentru moment, decât întrebarea: pe când și cum și un București Legal Makers de aceeași anvergură?

Prof. univ. dr. Mircea Duțu
Directorul Institutului de Cercetări Juridice „Acad. Andrei Rădulescu” al Academiei Române