Secţiuni » Arii de practică » Business » Cyberlaw
Cyberlaw
CărţiProfesionişti

Inteligența artificială în justiție și avocatură. Unde suntem și spre ce ne îndreptăm?
21.06.2022 | Angelica-Georgiana ALECU

Secţiuni: Articole, Cyberlaw, Selected
JURIDICE - In Law We Trust
Angelica-Georgiana Alecu

Angelica-Georgiana Alecu

Inteligența artificială[1] este un subiect care a suscitat și continuă să suscite multe dezbateri aprinse, însă nu doar în cadrul conferințelor tech din Silicon Valley. Departe de a fi doar un nou progres înregistrat în domeniul tehnologic, inteligența artificială a cunoscut un interes crescut, datorită potențialului său impresionant (și, probabil, încă nebănuit în complexitate), în domenii dintre cele mai variate. Mediul juridic nu a făcut excepție.

Titluri precum “Pot roboții fi avocați?[2] sau “Poate inteligența artificială înlocui judecătorii din instanțe?[3], din ce în ce mai frecvente atât în mediul academic, cât și publicistic, aduc în atenție posibilitatea ca progresul tehnologic să atingă la un moment dat, cel puțin ipotetic, idealul replicării inteligenței umane, cu toate funcționalitățile sale cognitive, înlocuind, astfel, actori cheie (la momentul actual) ai sistemului judiciar.

Într-un articol purtând un nume sugestiv, “The winter, the summer and the summer dream of artificial intelligence in law” (în traducere: “Iarna, vara și visul de vară al inteligenței artificiale în drept”)[4], una dintre ipotezele lansate pentru “visul de vară” al inteligenței artificiale în drept este posibilitatea conceperii unui “judecător automat”, capabil să interpreteze nu doar date și informații obiective, ci și emoții și intuiții, necesare pentru dezvoltarea unui raționament bazat pe conștiință, similar celui specific uman.

Sunt aceste scenarii plauzibile? Cât de aproape sau de departe am fi de ele? Și, mai ales, ce ar însemna un astfel de punct de cotitură pentru evoluția umanității, iar nu doar a sistemului judiciar? S-a scris mult pe aceste teme ample, fără a se găsi un răspuns. Și e firesc. Întrebările ce tind să înlăture vălul ce acoperă fereastra spre viitor nu pot primi răspunsuri opace. Articolul de față, cu atât mai puțin, își propune să ofere răspunsuri sau să tranșeze dezbateri. Dimpotrivă, țelul modest pe care și-l asumă este de a contura cadrul pentru deschiderea unei dezbateri, pornind de la prezentarea stadiului actual al utilizării inteligenței artificiale în domeniul justiției și avocaturii.

În cele ce urmează, pentru o înțelegere cât mai facilă a tematicii, vor fi avute în vedere câteva referințe introductive despre inteligența artificială, dintr-o perspectivă generală (Secț. II). Ulterior, vor fi analizate progresele înregistrate și riscurile semnalate în privința utilizării inteligenței artificiale (i) în sistemul judiciar (Secț. III) și (ii) în avocatură (Secț. IV), pentru ca, în final, să fie prezentate cele mai recente îndrumări în domeniu ale forurilor internaționale competente (Secț. V) și o serie de concluzii (Secț. VI).

I. Aspecte introductive privind inteligența artificială

Excede scopului prezentului articol o prezentare exhaustivă, tehnică, exprimată într-un jargon riguros a conceptului de inteligență artificială, însă câteva explicații prealabile sunt necesare pentru o corectă înțelegere a exemplelor de AI amintite în capitolele subsecvente. Definirea sintagmei de “inteligență artificială” se dovedește dificilă, întrucât nici măcar cu privire la definirea conceptului de „inteligență” nu există consens. În celebra lucrare “Artificial Intelligence: A Modern Approach” (în traducere: “Inteligența Artificială: O Abordare Modernă”)[5], profesorii Stuart J. Russell și Peter Norvig consideră că un sistem este cu adevărat inteligent când are capacitatea de a acționa în lumea reală ca entitate independentă, cu propriile seturi de valori și propria rațiune (definite în diverse forme).

Termenul de inteligență este, de altfel, intim legat de abilitatea de a explica mediul înconjurător și de a acționa în consecință. Până în prezent, oamenii sunt singurele ființe universal inteligente, în sensul în care pot găsi explicații extrem de precise ale fenomenelor (fizice, sociale, economice ș.a.) care sunt validate de experiență. Rațiunea ideală fiind întotdeauna bazată pe argumentație și explicație, un sistem ar putea fi inteligent numai dacă poate oferi explicații precise asupra înțelegerii lumii, asupra deciziilor pe care le va lua, și nu în ultimul rând, asupra propriei inteligențe[6].

Sistemele software pe care le numim astăzi „inteligente” nu se apropie de descrierea unei inteligențe cu capacitate universală de explicație, raționament, decizie și acțiune. Aceste sisteme sunt „inteligente” doar într-un sens restrâns, având o funcționalitate specifică și, implicit, capacitatea de a da soluții doar pentru probleme punctuale, clar delimitate, cu parametri cunoscuți sau ușor de reprezentat în software.

Întrebarea subsecventă firească este ce diferențiază un sistem software “inteligent” de un sistem software obișnuit. În termeni cât mai simpli, diferența poate fi explicată prin faptul că un sistem software obișnuit așteaptă întotdeauna acțiuni sau informații din partea operatorului, ca mai apoi să urmeze pașii care i-au fost programați. Spre exemplu, ori de câte ori operatorul apasă tasta pentru espresso a aparatului de cafea, aparatul va executa operațiunile asociate acelei taste și va livra cafeaua. Dar acesta nu va face niciodată un espresso, dacă niciun factor extern nu a acționat tasta corespunzătoare (în condiții optime de funcționare ale aparatului). Prin comparație, un sistem „inteligent” (chiar și în sensul restrâns pe care îl folosim astăzi) are capacitatea de a-și colecta propriile informații și/sau de a lua propriile decizii, fără intervenție din partea unui operator uman. În exemplul dat, dacă aparatul de cafea ar colecta date istorice cu privire la momentul în care operatorul și-a făcut cafeaua în diminețile anterioare și preferințele de cafea și ar lua decizia, fără a fi programat sau acționat extern, de a face un espresso la ora la care în mod frecvent își făcea operatorul cafeaua, aparatul de cafea nu ar mai fi un simplu software, întrucât nu doar a executat o operațiune, ci a luat o decizie.

Așadar, algoritmii AI, astfel cum sunt cunoscuți astăzi, nu reprezintă o formă de inteligență artificială „generală”, însă sunt mai mult decât simple sisteme software. În această categorie se regăsesc și exemplele prezentate în capitolele următoare.

II. Inteligența artificială în sistemul judiciar

Într-un discurs recent din luna martie 2022[7], susținut în cadrul conferinței „The Future for Dispute Resolution: Horizon Scanning” (în traducere “Viitorul soluționării disputelor: Scanarea Orizontului”), Sir Geoffrey Vos, Master of the Rolls al Marii Britanii[8], anticipează că în anul 2040 justițiabilii din Marea Britanie vor putea apela la justiție printr-un sistem online integrat, iar cu privire la anumite tipuri de cauze cu un impact mai scăzut, acesta se așteaptă ca părțile să fie din ce în ce mai puțin dispuse să investească resurse importante financiare și de timp pentru a se angrena în litigii în fața instanțelor naționale, preferând ca aceste cauze să fie soluționate de portale online bazate pe inteligență artificială.

Prefigurând potențiala reticență a avocaților sau a opiniei publice față de astfel de hotărâri judecătorești pronunțate cu ajutorul AI, Sir Geoffrey Vos este încredințat că acest impediment va putea fi depășit printr-o înțelegere corectă a ce este și ce nu este supus deciziei AI și, mai ales, dacă în final justițiabilii vor avea posibilitatea să critice aceste decizii în fața unor judecători umani.

Fiind proiectat nu tocmai departe în viitor, scenariul propus de Sir Geoffrey Vos are în vedere ipoteza în care întregul proces de luare a deciziei este delegat unui algoritm, chiar dacă pentru cauze cu un potențial impact minor. Însă inteligența artificială este deja prezentă, sub diverse forme și pentru diverse funcționalități în sistemul judiciar. Printre utilizările concepute pentru optimizarea și eficientizarea interacțiunii dintre justițiabili și sistemul judiciar, putem aminti[9]:

a) Ghiduri inteligente de completare online a unor formulare,

b) Sisteme inteligente de revizuire a documentelor,

c) Chatbots (programe ce simulează conversațiile cu un interlocutor uman) care sprijină cetățenii cu informații și îndrumare în domeniul juridic,

d) Programe de auto-transcripție,

e) Platforme interactive pentru a urmări statusul soluționării unui dosar ș.a.

Dar utilizările nu se opresc la o experiență mai prietenoasă a justițiabililor în interacțiunea cu organele judiciare. Scopurile pentru care este folosită în prezent inteligența artificială în justiție includ și funcționalități mai complexe precum[10]:

a) Identificarea informațiilor relevante în procesul de administrare electronică a probatoriului (procedură cunoscută sub numele de e-discovery), inclusiv procesarea imaginilor pentru recunoașterea unor persoane, obiecte sau locuri,

b) Dezvoltarea unor politici de prevenție a criminalității prin distribuirea echipajelor de poliție în diferite zone ale unei localități, unde se anticipează că există o probabilitate mai mare de săvârșire a unor noi infracțiuni, bazat pe predicțiile unor algoritmi ce fac conexiuni între date de localizare, evenimente și rate anterioare ale criminalității[11],

c) Analiza și interpretarea sunetelor de împușcătură pentru identificarea tipului de armă de foc cu care s-a tras, calibrul și clasa armei de foc, numărul de împușcături și direcția din care s-a tras,

d) Evaluarea potențialului infracțional sau de recidivă a unui infractor, în cauzele penale, pentru a lua decizii cu privire la dispunerea arestului preventiv sau pentru a cuantifica durata pedepsei cu închisoarea[12],

e) Identificarea infractorilor în cadrul unor spații publice sau în mulțimi prin recunoaștere facială[13].

Astfel, deși nu a fost conceput încă un algoritm care să soluționeze (integral) o cauză printr-un raționament similar celui efectuat de un judecător uman, există deja decizii importante (particularizate la aspecte punctuale) ce sunt luate prin intermediul sau cu ajutorul inteligenței artificiale.

Una dintre cele mai sensibile și disputate utilizări dintre cele listate mai sus este evaluarea potențialului infracțional sau de recidivă al unui infractor, întrucât dreptul fundamental la libertate al unei persoane (reale) ajunge să depindă de scorul calculat în mod automat de un algoritm (abstract, cel puțin în înțelegerea unui non-specialist). Problema esențială în această situație rezidă în înțelegerea corectă a mecanismului prin care se iau astfel de decizii de către un algoritm, în general.

Astfel, într-un mod cât mai simplu și concis, funcționarea unui algoritm de învățare automată supervizată poate fi rezumată în două etape principale de dezvoltare, respectiv etapa de antrenare (experimentală) și etapa de predicție (operațională):

a) Astfel, în prima etapă (experimentală), este necesară colectarea și procesarea unui volum cât mai mare de date, structurate cu ajutorul unor parametri. Aceste date includ atât „problema” la care trebuie să răspundă algoritmul, cât și “soluția” corectă. Spre exemplu, dacă este vorba despre un algoritm conceput pentru recunoașterea unor tipuri diferite de fructe dintr-o imagine, această etapă presupune punerea la dispoziție a unui număr cât mai mare de imagini (cu sau fără fructe), precum și precizarea, pentru fiecare imagine, dacă este prezent un fruct, precum și numele fructului.

b) În cea de-a doua etapă (operațională), pe baza experienței căpătate în etapa de antrenare, algoritmul este capabil să facă predicții cu privire la date nou inserate. De această dată, algoritmul primește doar “problema” pe care trebuie să o rezolve, iar el încearcă să găsească “soluția”. Revenind la exemplul dat, în această etapă, algoritmul primește o serie de fotografii și încearcă să recunoască și să numească fructele, pe baza similitudinilor cu exemplele din etapa de antrenare, când soluția îi era oferită.

Când “problema” pe care trebuie să o rezolve algoritmul este însă mult mai complexă decât recunoașterea unui măr într-o fotografie, precum evaluarea potențialului infracțional sau de recidivă al unui infractor, implicațiile practice ale unor potențiale erori într-una dintre cele două etape devin mult mai însemnate. Ce se întâmplă, spre exemplu, când, în etapa de antrenare, algoritmul primește exemple de soluții injuste prezentate ca fiind corecte? Algoritmul nu poate discerne între moral și imoral, legal sau ilegal, just sau injust, ci doar învață ceea ce i s-a prezentat ca fiind corect.

Astfel se poate ajunge în situația ca soluții injuste și tratamente discriminatorii, disproporționate și frauduloase să servească drept bază de învățare pentru algoritmi ce vor lua apoi decizii, cel puțin în aparență, obiective. Există suspiciuni că o astfel de situație nu este doar ipotetică.

Mai exact, în anul 2010, Departamentul de Justiție al Statelor Unite ale Americii a investigat activitatea Departamentului de Poliție din New Orleans, publicând apoi un raport în care a constatat încălcări repetate ale dispozițiilor legale federale și constituționale prin folosirea excesivă a forței împotriva persoanelor de culoare, minorităților rasiale, membrilor comunității LGBTQ, precum și prin nesoluționarea cauzelor privind violența domestică și agresiunile sexuale[14]. Un an mai târziu, autoritățile locale au contractat serviciile unei companii pentru dezvoltarea unui algoritm de „predictive policing” pentru predicții referitoare la potențiale activități infracționale[15]. Există însă acuzații în spațiul public cu privire la faptul că dezvoltatorii algoritmului respectiv nu au înlăturat datele din istoria Departamentului de Poliție din New Orleans despre care Departamentul de Justiție al Statelor Unite ale Americii a constatat că erau rezultatul unor comportamente abuzive și contrare dispozițiilor legale[16].

Acest exemplu ilustrează riscurile semnificative pe care le implică folosirea inteligenței artificiale în astfel de scopuri și, mai ales, consecințele extrem de grave la care se poate ajunge dacă aceste tehnologii nu sunt înțelese și aplicate corespunzător de toți actorii implicați (fie autorități publice, fie agenți privați). Practic, în acest fel, prejudecățile, abuzurile și nedreptățile săvârșite în trecut de către oameni aflați în funcții cu rol decizional ar fi perpetuate și amplificate cu ajutorul unor programe care beneficiază de aparența obiectivismului și legitimității unui așa-zis mecanism decizional incoruptibil. De vreme ce un calculator nu are emoții, sentimente, preferințe sau prejudecăți, nu i s-ar putea imputa că este subiectiv în analizele și predicțiile făcute. Dar ce se întâmplă dacă prejudecățile sunt încifrate în datele furnizate în etapa de antrenament? Dacă în imaginile folosite în etapa de antrenament, merele sunt, de fapt, stricate? Ce va învăța algoritmul și ce predicții va face apoi? Ura de rasă sau măsurile disproporționate vor fi mult mai greu de depistat și de dovedit printre linii de cod sau șiruri nesfârșite de 0 și 1, de necuprins cu mintea unui singur om și cu atât mai puțin de înțeles de către cei ce suportă consecințele acestor predicții.

Luând în considerare riscurile utilizării necorespunzătoare a uneltelor bazate pe AI și pe alte tipuri de algoritmi avansați, Comitetul de Justiție și Afaceri Interne al Marii Britanii a publicat pe 30 martie 2022 un raport numit “Technology rules? The advent of new technologies in the justice system” (în traducere: “Reguli în tehnologie? Apariția unor noi tehnologii în sistemul judiciar”)[17]. Printre măsurile propuse în cadrul acestui raport pentru a maximiza potențialul tehnologic și a minimiza riscurile asociate se numără:

a) crearea unui registru obligatoriu de algoritmi utilizați de poliție și organele judiciare, alături de introducerea unei obligații de onestitate (“duty of candour”),

b) sporirea importanței acordate principiului transparenței pentru dezvăluirea informațiilor referitoare la folosirea soluțiilor tehnologice avansate (tipul de tehnologie, durata utilizării, scopul utilizării, garanțiile aferente pentru respectarea drepturilor și libertăților ș.a.), astfel încât acestea să poată fi supuse dezbaterii publice și eventual contestate,

c) reglementarea acestui domeniu prin adoptarea unor acte normative, pe două nivele: legislație primară care să fixeze principiile generale și legislație secundară care să conțină prevederi detaliate,

d) introducerea obligativității efectuării unor training-uri prealabile pentru utilizatorii acestor tehnologii din sistemul judiciar,

e) constituirea la nivel național a unui organism central de autorizare și supraveghere a respectării unor standarde minime de protecție, precum și organizarea la nivel local a unor comitete de etică în cadrul inspectoratelor de poliție.

Astfel, progresele înregistrate de tehnologia AI pot avea efecte benefice asupra sistemului judiciar, atât în cauzele civile, cât și în cele penale, precum facilitarea interacțiunii justițiabililor cu sistemul judiciar, reducerea timpului și costurilor pentru soluționarea anumitor tipuri de dispute, combaterea fenomenului infracțional și eficientizarea investigațiilor criminalistice. Cu toate acestea, după cum spune proverbul englezesc “the devil is in the details” (în traducere: “răul sălășluiește în detalii”). În absența unui cadru legislativ și instituțional bine puse la punct, care să țină pasul cu progresul tehnologic, drepturile și libertățile fundamentale ale cetățenilor, precum libertatea individuală, accesul la justiție și dreptul la viață privată sunt periclitate.

Pe cale de consecință, înainte de a găsi răspuns la întrebarea dacă și în ce măsură vor exista judecători AI în sălile de judecată și de a considera eventual această ipoteză un scenariu science-fiction, plasat într-un moment îndepărtat din viitor, avem responsabilitatea de a răspunde și a face față unor provocări mai stringente cu care sistemele judiciare deja se confruntă într-o formă sau alta.

III. Inteligența artificială în avocatură

AI nu a exceptat nici activitatea avocațială. Dimpotrivă, progresul înregistrat a condus chiar la noutăți lingvistice, începând să fie utilizați termeni precum “lawbot” sau “lawyer bot”[18]. Încă de acum 2 ani, o societate de avocatură anunța lansarea primului lawyer bot în Georgia, despre care fondatorul societății estima ca va putea automatiza 30% din activitatea unui avocat.

Mai recent, la finalul anului trecut, banca de investiții Morgan Stanley[19] anunța că a economisit 10 milioane de dolari pentru onorarii avocațiale și 50.000 de ore de muncă folosind “robot Libor lawyers”, în loc de servicii prestate exclusiv de avocați umani, pentru procesul de analiză și revizuire a clauzelor din contractele de credit referitoare la Libor (London Interbank Offered Rate)[20]. În același articol, este dat un alt exemplu al ING, care a apelat, de asemenea, la AI pentru revizuirea a 1.4 milioane de pagini de contracte de credit și care analizează posibilitatea de a extinde utilizarea software-ului și la aprobarea creditelor.

Studiind piața serviciilor bazate pe AI în domeniul avocaturii, se poate constata existența a două tendințe principale de dezvoltare: pe de o parte, algoritmi care înlocuiesc activități ale avocaților umani, iar pe de altă parte, algoritmi care eficientizează activitatea avocaților umani.

Prima categorie este cea care suscită dezbaterile cele mai aprinse, aducând în atenție întrebarea antamată încă de la debutul prezentului articol, și anume în ce măsură poate un algoritm AI să înlocuiască un avocat. Exemplele practice demonstrează că au fost deja făcuți pași în această direcție.

Cu un nume sugestiv, Do Not Pay (în traducere “Nu plăti”) se autoproclamă pe prima pagină a website-ului propriu “primul avocat robot din lume”, îndemnând vizitatorii “să lupte împotriva corporațiilor, să învingă birocrația și să dea în judecată pe oricine cu apăsarea unui singur buton[21]. Aplicația pretinde să acorde utilizatorilor facilitatea de a reda în cuvinte proprii problema de drept cu care se confruntă, urmând ca software-ul dezoltat pe modelul de învățare automată să traducă în limbaj juridic și să completeze documentele necesare pentru soluționarea problemei. Printre serviciile listate pe website se regăsesc sarcini ce sunt în mod previzibil relativ ușor de automatizat, precum contestarea amenzilor pentru parcări ilegale sau rezilierea unor contracte de prestare servicii, dar și servicii cel puțin surprinzătoare sau de o complexitate sporită, precum “annul my marriage” (în traducere “anulează-mi căsătoria”) sau “make money online” (în traducere “fă bani online”).

Interesantă este și povestea din spatele platformei Do Not Pay. În urmă cu câțiva ani, pe vremea când avea 18 ani, fondatorul Joshua Browder obișnuia să ia amenzi pentru parcare, a căror plată nu și-o permitea. Căpătând o experiență nedorită, dar vastă, a învățat care sunt argumentele pe care le putea utiliza pentru a contesta cu succes amenzile. Ulterior, pentru a nu copia conținutul contestațiilor, a creat prima versiune a Do Not Pay pentru a automatiza acest proces și pentru a-și impresiona familia, ca efect colateral[22]. Cinci ani mai târziu, aplicația sa a fost premiată de American Bar Association[23] cu premiul Louis M. Brown Award for Legal Access[24].

În timp ce Do Not Pay este o aplicație destinată utilizatorilor finali (potențialilor clienți ai serviciilor avocațiale), alte unelte care înlocuiesc rolul avocaților în diverse activități se adresează chiar societăților de avocatură sau departamentelor juridice ale diverselor companii, pentru automatizarea anumitor sarcini. Un astfel de exemplu este Neota Logic[25]. Prin intermediul acestei platforme, la cererea unor societăți de avocatură, au fost dezvoltate aplicații precum:

a) Automatizarea încheierii acordurilor de confidențialitate (“non disclosure agreements”), integrând în aceeași aplicație procesul de redactare, negociere, semnare electronică și înregistrare,

b) O aplicație web gratuită pusă la dispoziție de echipa de litigii Allen & Overy Hong Kong victimelor fraudelor informatice pentru a parcurge pașii imediați ce trebuie urmați pentru blocarea contului accesat în mod neautorizat și sesizarea autorităților competente,

c) O aplicație pentru îndrumarea persoanelor fizice din Australia ce nu și-au putut desfășura activitatea din cauza pandemiei, pentru a înțelege criteriile de eligibilitate și a parcurge procedura pentru acordarea ajutorului financiar guvernamental.

Cea de-a doua categorie amintită anterior se referă la algoritmi care eficientizează activitatea avocaților umani, iar lista este una lungă și acoperă o gamă variată de activități punctuale “delegate” algoritmilor, dintre care amintim cu titlu de exemplu: KM Standards (pentru redactarea unor template-uri de contracte), Kira Systems (pentru management-ul sarcinilor în cadrul unei echipe), Fast Case (pentru cercetare juridică). Spre deosebire de categoria anterioară, aceste aplicații nu sunt destinate neapărat utilizatorilor finali, ci chiar avocaților, ocupându-se de sarcini punctuale ce pot fi automatizate pentru eficientizarea muncii acestora.

Din același registru face parte și aplicația ROSS ce utilizează procesarea de limbaj natural și algoritmi de învățare automată pentru a facilita cercetarea juridică prin: (i) sistem de căutare pe bază de întrebări, iar nu simple cuvinte-cheie, (ii) identificarea unor spețe relevante cu limbaj similar, iar nu doar identic cu cel introdus, (iii) rezumarea jurisprudenței identificate, pe baza întrebărilor introduse, (iv) transmiterea unor notificări în cazul unor modificări legislative relevante pentru cercetările efectuate. Întrebat despre relația dintre computere și oameni când vine vorba despre executarea unor sarcini, Andrew Arruda, CEO-ul ROSS, declara în urmă cu câțiva ani că atunci când aduni laolaltă calculatoarele și oamenii, rezultatul este cu mult mai bun decât atunci când alegi între oameni și calculatoare[26]. În plus, cu o privire specială asupra mentalității avocaților, Andrew Arruda preciza că “atunci când auzim că avocaților nu le place schimbarea, nu e tocmai corect. Avocații acceptă schimbarea, ceea ce nu le place sunt riscurile[27].

Sunt aceste exemple suficiente sau concludente pentru a putea trage concluzia că avocații vor fi în curând înlocuiți de algoritmi? Într-un articol dedicat acestei teme[28], autorii analizează pe rând tipurile de sarcini îndeplinite de avocați, estimând potențialul impact al AI asupra forței de muncă umane sub trei categorii: impact minor, impact moderat și impact major. În timp ce printre activitățile incluse în categoria de impact minor se regăsesc, în opinia autorilor, exemplificativ consultanța acordată clienților, negocierea și reprezentarea în instanță, la polul opus, printre activitățile cu impact major se regăsește revizuirea documentelor. La granița între cele două, în categoria activităților cu impact moderat sunt listate: redactarea de documente, efectuarea de due diligence, cercetarea juridică și stabilirea strategiei[29].

În viziunea acelorași autori, departe de a fi automatizată în viitorul apropriat este reprezentarea clienților în instanță de către avocații de litigii. Pe lângă rigoarea normelor procedurale și restricțiile mult mai severe din sălile de judecată, un impediment principal pentru o astfel de automatizare este componenta emoțională implicată în procesul de luare a deciziei. Nu doar argumentele sunt cele care contribuie la convingerea unui judecător, ci și emoțiile transmise de avocatul pledant, iar trăirile afective sunt departe de a fi codate și procesate prin algoritmi. Cel puțin în prezent.

Astfel, într-o măsură mai mică sau mai mare, în funcție de domeniul de activitate și de aria de practică, munca avocaților suferă și va continua să sufere transformări din nevoia de adaptare la cerințele pieței și la progresul tehnologic. Dar, similar riscurilor generate de utilizarea AI în sistemul judiciar, apelarea la aceste unelte pentru a înlocui sau eficientiza servicii avocațiale presupune la rândul său provocări specifice.

În special în privința algoritmilor care înlocuiesc activitățile avocaților umani, de cele mai multe ori, intenția declarată este de a facilita accesul cetățenilor (cu venituri reduse) la servicii avocațiale și, atunci când este cazul, la justiție. Însă dreptul la apărare ar putea fi periclitat dacă serviciile avocațiale sunt oferite de personal necalificat (uman sau computerizat). Autorizarea sub diverse forme a profesioniștilor care prestează astfel de activități garantează un anumit standard de pregătire și formare profesională care, în final, reprezintă o garanție a protecției drepturilor și intereselor cetățenilor ce apelează la acești profesioniști. Liberalizarea completă a acestui domeniu, sub dezideratul garantării dreptului la apărare, ar putea conduce tocmai la consecința contrară, întrucât apărarea trebuie să fie și calificată, iar nu doar la îndemână.

Aceasta este, de altfel, și rațiunea pentru care (i) anumite activități specifice sunt rezervate prin lege avocaților, iar (ii) calitatea de avocat este obținută pe baza unui examen. Spre exemplu, în dreptul românesc, dispozițiile art. 3 alin. (1) din Legea nr. 51/1995 pentru organizarea şi exercitarea profesiei de avocat precizează expres care sunt activitățile rezervate prin lege avocaților. Apare astfel întrebarea în ce măsură un algoritm AI care prestează una sau mai multe dintre aceste activități poate fi considerat o persoană neautorizată. Învestite cu judecarea unei pricini a cărei soluționare depindea de răspunsul la această întrebare[30], instanțele din Statele Unite ale Americii au făcut o distincție între activități de practicare a dreptului și activități de îndrumare prin kit-uri de tipul “do-it-yourself” (“ocupă-te singur”).

Mai exact, în speța menționată, compania Legalzoom (deținătoarea website-ului cu același nume) a fost acționată în instanță pentru practicarea neautorizată a dreptului, potrivit legislației din statul Missouri, întrucât oferea clienților săi formulare și servicii legale. Website-ul avea două funcționalități principale: pe de o parte clienții puteau descărca formulare tipizate legale necompletate, pe care mai apoi să le printeze și completeze singuri, iar pe de altă parte clienții puteau completa un chestionar online, urmând ca un angajat Legalzoom să pregătească documentele legale prin inserarea informațiilor furnizate de client într-un template și să verifice conținutul, astfel încât informațiile să fie complete.

În dezvoltarea raționamentului lor, judecătorii s-au raportat la precedente judiciare în situații de practici potențial neautorizate, recunoscând însă că acestea nu sunt direct aplicabile, luând în considerare noutatea tehnologiei în dispută. Concluzia judecătorilor a fost în sensul că portalul online prin care utilizatorii Legalzoom completau un chestionar și primeau în schimb formulare completate și verificate de angajații Legalzoom reprezintă mai mult decât un simplu produs (un kit “do-it-yourself”), prestând cu această ocazie și un serviciu, respectiv pregătirea de documente legale. Pe cale de consecință, având în vedere că persoanele care prestau acest serviciu nu erau autorizate să practice dreptul în statul Missouri, exista un risc evident ca publicul să fie consiliat în probleme juridice de persoane necompetente.

Astfel, similar utilizărilor din sistemul judiciar, utilizarea AI în practicarea avocaturii prezintă beneficii însemnate atât pentru avocați, prin creșterea eficienței muncii avocaților, reducerea timpului dedicat activităților de rutină ce pot fi automatizate și îmbunătățirea rezultatelor cercetării juridice, cât și pentru clienți, prin îndrumare în parcurgerea unor proceduri legale lipsite de complexitate și pentru care nu au nevoie de ajutor de specialitate.

Cu toate acestea, dezvoltarea acestor tehnologii de o manieră iresponsabilă și liberalizarea fără bariere a serviciilor avocațiale ascund pericole despre care utilizatorii finali este posibil să nu fie conștienți. După cum corect s-a reținut într-o altă cauză din Statele Unite ale Americii[31], scopul reglementării unor activități rezervate prin lege avocaților “nu este să protejeze baroul de concurență, ci să protejeze publicul de pericolul de a fi consiliat sau reprezentat în probleme legale de persoane incompetente sau neserioase”[32].

IV. Îndrumări și tendințe legislative cu privire la utilizarea inteligenței artificiale în domeniul juridic

După cum se poate observa, utilizarea iresponsabilă a inteligenței artificiale în justiție sau în avocatură, în absența unor direcții clare de dezvoltare și a unor garanții corespunzătoare, poate conduce la grave atingeri aduse drepturilor și libertăților fundamentale ale cetățenilor. În aceeași măsură, teama producerii unor erori nu trebuie să împiedice progresul, astfel că soluția rămâne atingerea unui echilibru printr-o evoluție tehnologică dirijată. În acest sens, vestea bună este că există o preocupare tot mai crescută pentru trasarea unor linii diriguitoare care să diminueze riscurile și să maximizeze potențialul de progres.

În decembrie 2018, Comisia Europeană pentru Eficiență în Justiție (CEPEJ) din cadrul Consiliului Europei a adoptat “Carta Etică Europeană în privința utilizării inteligenței artificiale în sistemele judiciare și domeniile adiacente” (denumit în continuare “Carta Etică Europeană”)[33]. primul document european relevant în această materie. În cadrul acesteia, au fost stabilite următoarele cinci principii fundamentale, cu explicațiile aferente, după cum urmează:

a) Principiul respectării drepturilor fundamentale – utilizarea AI în sistemele judiciare trebuie să servească scopuri precise, în completă armonie cu respectarea drepturilor fundamentale garantate de Convenția Europeană a Drepturilor Omului și a dreptului la protecția datelor și să nu aducă atingere garanțiilor accesului la justiție, dreptului la un proces echitabil, principiului ordinii de drept sau a independenței judecătorului,

b) Principiul nediscriminării – prevenirea dezvoltării sau intensificării oricăror discriminări între indivizi sau grupuri de indivizi, cu o grijă sporită în etapa de dezvoltare ce poate presupune procesarea directă sau indirectă de date sensibile (rasă, origine etnică, profil socio-economic, opinii politice, religie, apartenență la sindicate, date genetice, date biometrice, orientare sexuală ș.a.),

c) Principiul calității și securității – folosirea unor surse certificate și a unor date intacte cu modele concepute într-o manieră multidisciplinară, colectând ariile de expertiză ale mai multor profesioniști din domeniu (judecători, procurori, avocați), în special în privința procesării hotărârilor judecătorești și a datelor,

d) Principiul transparenței, imparțialității și echității – facilitarea accesului la informații și a înțelegerii metodelor de procesare a datelor, autorizarea unor auditori externi, precum și atingerea unui echilibru între protecția drepturilor de proprietate intelectuală și nevoia de transparență,

e) Principiul “under user control” (“sub controlul utilizatorului”) – asigurarea că subiecții sunt actori informați și că au controlul propriei decizii. Aceștia trebuie să fie informați în limbaj cât mai simplu și ușor de înțeles dacă soluțiile oferite de uneltele AI sunt obligatorii sau nu și trebuie să li se aducă la cunoștință dreptul la asistență juridică și dreptul de acces la o instanță. De asemenea, trebuie să fie informați despre orice potențială procesare a cauzei de către AI, fie anterior, fie chiar în timpul procesului, având posibilitatea de a face obiecții și a fi ascultați direct de către o instanță judecătorească în sensul art. 6 din Convenția Europeană a Drepturilor Omului.

Totodată, în anexa II, Carta Etică Europeană oferă anumite indicații de orientare cu privire la direcțiile în care progresul ar trebui urmărit, catalogând utilizările AI în patru clase:

a) Utilizări încurajate: îmbunătățirea cercetării jurisprudențiale prin procesarea limbajului natural, generarea unor template-uri de documente, utilizarea chatbots pentru oferirea informațiilor relevante utilizând limbaj natural,

b) Utilizări posibile ce necesită precauții metodologice considerabile: sprijinirea unor măsuri de soluționare alternativă a disputelor în materie civilă, soluționarea disputelor prin intermediul platformelor online, utilizarea AI pentru predicții cu privire la zonele în care se comit infracțiuni,

c) Utilizări de avut în vedere după studii științifice suplimentare: crearea unor profiluri ale judecătorilor, generarea unor predicții cu privire la decizia instanțelor judecătorești,

d) Utilizări de privit cu cele mai extreme rezerve: utilizarea în materie penală a unor algoritmi AI pentru crearea de profile ale indivizilor (precum se întâmplă în cazul COMPAS utilizat în Statele Unite ale Americii sau HART în Marea Britanie), orientarea judecătorilor către decizii luate pe criterii cantitative (punând la dispoziție numărul de decizii emise de alți judecători în spețe similare și “blocând” judecătorul în această masă de așa-zise precedente).

O altă inițiativă salutară, foarte recentă, pentru crearea unor principii călăuzitoare în acest domeniu este publicarea la finalul lunii martie 2022 a “Ghidului pentru utilizarea de către avocați și firmele de avocatură din Uniunea Europeană a uneltelor bazate pe inteligența artificială” (în continuare “Ghidul CCBE”) de către Consiliul Barourilor și Societăților de Drept din Europa (CCBE) și Fundația Europeană a Avocaților (ELF), în cadrul programului AI4Lawyers[34]. Pe lângă descrierea (de o manieră didactică, iar nu comercială) a unor tipuri de unelte bazate pe inteligența artificială relevante pentru activitatea avocațială, Ghidul CCBE include potențiale scenarii privind modul în care va fi folosită inteligența artificială în viitor de către avocați, precum și principalele riscuri ale utilizării AI de care avocații ar trebui să fie conștienți, atât cu privire la aspectele tehnice, cât și cu privire la obligațiile profesionale ale acestora față de clienți.

Conform Ghidului CCBE, printre activitățile desfășurate de avocați cu cel mai mare potențial de a fi eficientizate prin intermediul inteligenței artificiale, sunt enumerate: redactarea de documente, analiza de documente, cercetarea legislației și jurisprudenței, transcrierea automată a unui discurs, utilizarea de chatbots și asistența în organizarea internă a activităților administrative.

În privința riscurilor, este amintit, cu titlu de exemplu, riscul de încălcare a obligației de confidențialitate față de client, în cazul în care dezvoltatorii instrumentelor bazate pe AI utilizate transmit datele puse la dispoziție de avocați pentru procese de antrenare sau de analiză efectuate de către terțe companii. În plus, pe lângă astfel de riscuri ce privesc mai degrabă aspectele tehnice și garanțiile unei funcționalități conforme cu standardele legale, Ghidul CCBE amintește și de riscuri prezente mai degrabă la nivel psihologic și deontologic, precum “frica de a fi lăsat deoparte” (prescurtată în engleză ca FOMO, de la “fear of missing out”) ce îi poate determina pe avocați să se prezinte public drept pionieri ai unor noi tehnologii, pentru a căror utilizare corespunzătoare nu dețin însă competența profesională necesară.

În final, redactorii ghidului menționează că nu suntem în stadiul în care profesiile juridice să devină redundante, însă avocații trebuie să își ajusteze activitatea și competența conform transformărilor prin care întreaga societate trece ca urmare a utilizării noilor tehnologii.

Totodată, cu un interes crescut deopotrivă pentru a deveni un competitor puternic pe piața globală în domeniul AI, dar și pentru a ține riscurile aferente sub control, la nivelul Uniunii Europene, Comisia Europeană a propus noi reguli și acțiuni pentru a transforma Uniunea Europeană într-un hub global pentru tehnologii de AI sigure și fiabile. Astfel, în aprilie 2021 a publicat “Pachetul AI[35], în care se regăsește inclusiv o propunere de Regulament în domeniul AI[36], ce prevede o listă de practici interzise, clasificarea sistemelor AI în funcție de gradul de risc (împreună cu cerințele aferente de conformitate), obligația desemnării la nivel național a unei autorități de notificare, instituirea Comitetului European pentru Inteligența Artificială, crearea unei baze de date UE pentru sisteme autonome de AI cu grad ridicat de risc, instituirea unui mecanism de monitorizare ulterioară și alte astfel de măsuri.

Cu o privire specială asupra utilizării AI de către autoritățile polițienești și judiciare în procedurile penale, în octombrie 2021, Parlamentul European a emis o Rezoluție prin care și-a manifestat îngrijorarea față de “o serie de riscuri potențiale mari și, în anumite cazuri, inacceptabile pentru protejarea drepturilor fundamentale ale persoanelor, cum ar fi opacitate în luarea deciziilor, diferite tipuri de discriminare și erori inerente în algoritmul de bază care pot fi consolidate prin bucle de feedback, precum și riscuri pentru protejarea vieții private și a datelor cu caracter personal, a libertății de exprimare și de informare, a prezumției de nevinovăție, a dreptului la o cale de atac și la un proces corect, precum și pentru libertatea și securitatea persoanelor[37].

În cadrul acestei rezoluții, Parlamentul European a solicitat Agenției pentru Drepturi Fundamentale a UE ca, în colaborare cu CEPD și AEPD, să elaboreze orientări cuprinzătoare, recomandări și bune practici pentru a detalia criteriile și condițiile pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor AI care să fie utilizate de autoritățile de aplicare a legii și judiciare. Totodată, Parlamentul European a invitat, de asemenea, Comisia să analizeze dacă este necesară o acțiune legislativă distinctă pentru specificarea mai detaliată a criteriilor și condițiilor pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor AI de către autoritățile de aplicare a legii și judiciare.

Astfel, deși nu există încă un set de reglementări specifice cu caracter imperativ la nivel intern sau internațional, în perioada recentă au fost publicate îndrumări care să vină în ajutorul profesioniștilor din sistemul judiciar și din avocatură, ce se confruntă cu provocări inedite generate de dezvoltarea accelerată a tehnologiei AI. Inițiativa este mai mult decât binevenită nu doar din perspectiva oferirii unui sprijin celor implicați în prezent în utilizarea uneltelor AI (prin facilitarea înțelegerii mecanismelor de funcționare ale acestora și a riscurilor aferente), dar mai ales din perspectiva orientării direcției potrivite înspre care să fie îndreptat progresul tehnologic în acest domeniu în viitor.

V. Concluzii

Astfel cum a fost precizat încă din debutul prezentului articol, până la momentul actual nu a fost concepută o inteligență artificială “generală”, în sensul de entitate cu capacitatea de a acționa în lumea reală în mod independent, având propriile seturi de valori și propria rațiune. Câtă vreme inteligența umană, în toată complexitatea sa, nu este explicată, este puțin probabilă replicarea sa[38]. Din acest punct de vedere, probabilitatea ca în viitorul apropiat avocații, judecătorii sau alți actori-cheie din sistemul judiciar să fie înlocuiți de algoritmi bazați pe AI pare să fie una redusă.

Dar acest fapt nu trebuie să conducă la concluzia că inteligența artificială este un domeniu științifico-fantastic, plasat într-un viitor îndepărtat și incert și, prin urmare, nu ar merita să îi fie acordată o atenție însemnată. Dimpotrivă, instrumentele bazate pe inteligență artificială pentru funcționalități restrânse sunt deja o realitate și sunt folosite în activitatea de zi cu zi a profesioniștilor din domeniul juridic. Tocmai de aceea, preocuparea ar trebui să fie orientată către modul în care astfel de tehnologii funcționează deja și asupra consecințelor pe care le produc în prezent sau le pot produce în viitor. Numai o dezvoltare responsabilă a acestor tehnologii poate conduce deopotrivă la eficientizarea muncii umane și la respectarea drepturilor și libertăților fundamentale.

În caz contrar, în absența unor direcții clare de orientare, sub cupola unor intenții declarate dintre cele mai nobile precum facilitarea accesului la justiție, combaterea criminalității sau eficientizarea costurilor, se poate ascunde, în realitate, un cal troian al riscurilor nebănuite. Justiția și avocatura, la fel ca orice alt domeniu, vor suferi treptat transformări semnificative, dar dacă acestea vor fi într-o direcție pozitivă sau negativă depinde de înțelegerea și acceptarea a două idei: (i) progresul nu poate fi oprit, (ii) dar poate fi dirijat.


[1] În cadrul prezentului articol, pentru ușurință, sintagma “inteligență artificială” va fi utilizată alternativ cu prescurtarea “AI”.
[2] D. Remus, F.S. Levy,., Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, 27 noiembrie 2016, disponibil aici sau aici (accesat la 7 mai 2022)
[3] Dawn Lo, Can AI replace a judge in the courtroom? Disponibil aici (accesat la 7 mai 2022)
[4] E. Francesconi, The winter, the summer and the summer dream of artificial intelligence in law, Artif Intell Law 30147–161 (2022), disponibil aici (accesat la 7 mai 2022)
[5] A se vedea S.J Russel, P. Norvic, Artificial Intelligence: A Modern Approach, ed. a IV-a, Ed. Pearson Education Limited, 2021
[6] Pentru o analiză mai amplă în acest sens a se vedea D. Deutsch, The Beginning of Infinity. Explanations that transform the world, Ed. Penguin Books Ltd, 2012, p. 148-164
[7] A se vedea aici (accesat la 7 mai 2022)
[8] Pentru mai multe detalii despre Master of Rolls, a se consulta aici (accesat la 7 mai 2022)
[9] S. Azam, Unnovation & Technology, Artificial Intelligence, the “AI Justice Challenge” and the Future of Law, disponibil aici (accesat la 7 mai 2022)
[10] Jud. Herbert B. Dixon Jr., Artificial Intelligence: Benefits and Unknown Risks, disponibil aici (accesat la 7 mai 2022)
[11] O astfel de unealtă este Predpol. Pentru mai multe detalii, a se vedea aici (accesat la 7 mai 2022)
[12] O unealtă de acest gen care a stârnit multe controverse este COMPAS (“the Correctional Offender Management Profiling for Alternative Sanctions”). Pentru o analiză mai detaliată, a se vedea J. Angwin, J. Larson, S. Mattu & L. Kirchner, Machine Bias: There’s Software Used Across the Country to Predict Future Criminals, and It’s Biased Against Blacks., Propublica, 23 mai 2016, disponibil aici (accesat la 7 mai 2022).
[13] Pentru o analiză mai detaliată a acestui subiect, a se vedea K. Walch, Cognitive World (Contributor Group), The Growth Of AI Adoption In Law Enforcement, disponibil aici (accesat la 7 mai 2022).
[14] A se vedea Comunicatul de presă nr. 11-342 al Departamentului de Justiție al Statelor Unite, disponibil aici (accesat la 7 mai 2022).
[15] Pentru o analiză a avantajelor și dezavantajelor algoritmilor de tip predictive policing, a se vedea A. Norga, 4 Benefits And 4 Drawbacks Of Predictive Policing, disponibil aici (accesat la 7 mai 2022)
[16] K. Hao, Police Across the US Are Training Crime-Predicting AIs on Falsified Data, MIT TECH. REV, 13 februarie 2019, disponibil aici (accesat la 7 mai 2022)
[17] Disponibil aici (accesat la 7 mai 2022)
[18] A se vedea Lawyers to Engage Team, What everyone must know about lawyer bots, disponibil aici (accesat la 7 mai 2022)
[19] W. Shaw, Morgan Stanley’s Robot Libor Lawyers Saved 50,000 Hours of Work, disponibil aici (accesat la 7 mai 2022)
[20] Ca urmare a unor fraude constatate, Libor a fost înlocuit începând cu 31 decembrie 2021 cu SOFR (Secured Overnight Financing Rate). Pentru mai multe detalii, a se vedea M. Marquit, B. Curry, What Is Libor And Why Is It Being Abandoned?, disponibil aici (accesat la 7 mai 2022)
[21] Disponibil aici (accesat la 7 mai 2022)
[22] P. Belton, Would you let a robot lawyer defend you?, disponibil aici (accesat la 7 mai 2022)
[23] Disponibil aici (generat la 7 mai 2022 prin https://bitly.com/)
[24]Premiul Louis M. Brown este acordat începând cu anul 1995 pentru celor care își dedică munca îmbunătățirii accesului la servicii legale pentru cei cu venituri reduse. Pentru detalii, a se vedea aici (accesat la 7 mai 2022)
[25] A se vedea aici (accesat la 7 mai 2022)
[26] E. Sohn, alt.legal: Can Computers Beat Humans At Law?, disponibil aici (accesat la 7 mai 2022)
[27] idem
[28] D. Remus, F.S. Levy, op.cit.
[29] Deși aparent surprinzătoare, având în vedere că stabilirea strategiei ar putea fi considerată o activitate imună la procesele de automatizare, progresul unor unelte software (i) care fac predicții pe baza datelor istorice sau (ii) care organizează și prezintă utilizatorilor soluții legale într-un dialog structurat poate conduce, mai ales prin combinarea celor două, la un impact asupra modului în care vor fi stabilite strategiile în viitor, cel puțin pentru anumite cauze mai simple.
[30] Janson și alții c. Legalzoom.com, Inc.- 802 F.Supp. 2d 1053, 1059 (W.D. Mo. 2011). Pentru mai multe detalii, a se vedea aici (accesat la 7 mai 2022)
[31] Hulse, 247 S.W.2d at 857–58.
[32] Citatul original: “is not to protect the Bar from competition but to protect the public from being advised or represented in legal matters by incompetent or unreliable persons
[33] Disponibilă aici (accesat la 7 mai)
[34] Disponibil aici (accesat la 7 mai 2022)
[35] A se vedea aici (accesat la 7 mai 2022)
[36] Disponibilă aici (accesat la 7 mai 2022)
[37] Disponibilă aici (accesat la 7 mai 2022)
[38] A se vedea și D. Deutsch, op.cit.


Av. Angelica-Georgiana Alecu, Associate, STOICA & Asociații

Cuvinte cheie: , , ,
Vă invităm să publicaţi şi dvs., chiar şi opinii cu care nu suntem de acord. JURIDICE.ro este o platformă de exprimare. Publicarea nu semnifică asumarea de către noi a mesajului. Totuşi, vă rugăm să vă familiarizaţi cu obiectivele şi valorile Societătii de Stiinţe Juridice, despre care puteti ciţi aici. Pentru a publica vă rugăm să citiţi Condiţiile de publicare, Politica privind protecţia datelor cu caracter personal şi să ne scrieţi la adresa de e-mail redactie@juridice.ro!

JURIDICE.ro foloseşte şi recomandă My Justice

JURIDICE CORPORATE
JURIDICE MEMBERSHIP
Juristi
JURIDICE pentru studenti









Subscribe
Notify of

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

0 Comments
Inline Feedbacks
View all comments
Important: Descurajăm publicarea de comentarii defăimatoare. Vor fi validate doar comentariile care respectă Politica JURIDICE.ro şi Condiţiile de publicare.

Secţiuni        Selected     Noutăţi     Interviuri        Arii de practică        Articole     Jurisprudenţă     Legislaţie        Cariere     Evenimente     Profesionişti