Secţiuni » Articole
Articole autoriRNSJESSENTIALSStudiiOpiniiInterviuriPovestim cărţi
Opinii
Print Friendly, PDF & Email

Inteligenţa artificială în instanțe
03.12.2019 | Claudiu DRĂGUȘIN

Claudiu Drăgușin

Claudiu Drăgușin

Vedem în jurul nostru cum inteligența artificială îşi face loc tot mai hotărât în industria automobilistică, în medicină, în industria militară, în domeniul finanțelor, aproape peste tot.

Chiar dacă s-a simțit în siguranță, din ignoranță sau dintr-o gândire pozitivă exagerată, domeniul juridic nu este deloc la adăpost.

Ce se întâmplă însă atunci când inteligența artificială intră chiar în instanță, afectând activitatea judecătorului?

Încercând o sistematizare, o să spunem că din perspectivă teoretică inteligența artificială poate intra în instanță pe patru căi:

a. fie ca instrument adiacent avocaturii, cu impact în activitatea instanţelor (nu se includ aici instrumente precum cele care îl ajută pe avocat să îşi administreze dosarele sau relația cu clienții, ci doar acele instrumente care sunt legate intrinsec de activitatea de judecată, cum ar fi cele privind analiza jurisprudenței, realizarea profilului judecătorului, predicția rezultatului şi a costurilor unei proceduri etc.);

b. fie ca asistent în procesul de soluționare a sarcinilor repetitive, fiind util deopotrivă grefierilor și judecătorilor;

c. fie în procesul decizional, preluând această sarcină de la judecător şi înlocuindu-l;

d. fie în procesul decizional, ca asistent al judecătorului.

a. Despre prima ipoteză, a instrumentului adiacent avocaturii, se cuvine să observăm că inteligența artificială este mult mai prezentă aici decât în celelalte zone. Cumva este explicabil, avocatura manifestându-se în zona profesiilor liberale, a domeniului privat, cu mai multă libertate de mișcare şi cu mai multă apetență spre experimentare.

Este cunoscut faptul că există deja algoritmi[1] care, spre exemplu, găsesc jurisprudență relevantă în bazele de date deja existente electronic și care fac inutilă prezența şi plata avocaților stagiari însărcinați cu studiul fizic al tonelor de hârtie din bibliotecile juridice. Toată jurisprudența și toate precedentele sunt la un clic distanță, lucru cu atât mai util când sistemul de drept se bazează pe precedent, aşa cum este cazul Statelor Unite ale Americii.

De asemenea, inteligența artificială a ajuns, măcar în teorie, la punctul la care ar putea afecta probatoriul din dosar. Fără să fie numite în mod expres, s-a făcut trimitere indirectă în literatură[2] la aplicații precum cea chinezească deepfake Zao[3], capabilă să simuleze comportamente umane până la perfecțiune. Ce se întâmplă cu un film video în care o persoană aflată în intimitatea casei sale, fără niciun alibi, apare într-un film procesat în aplicația amintită, la aceeași oră, ca autor al unei crime, într-o altă parte a orașului?

Chiar dacă sună deprimant, nu am o părere pesimistă asupra acestei perspective.

Așa cum s-au găsit variante de răspuns și cu alte ocazii, se va putea imagina un răspuns procedural pentru a nu fi alterat dreptul la un proces echitabil, fie că este vorba despre creșterea complexității probatoriului, fie că este vorba despre degradarea din rangul de probă, atunci când va fi sigur că imaginile, sunetul și filmele nu vor mai putea fi crezute. Aşa s-a întâmplat şi cu mărturisirea, denumită cândva regina probelor până la momentul la care s-a constatat că omul care recunoaște nu spune întotdeauna adevărul, existând mobiluri care pot învinge instinctul de autoapărare, cum ar fi necesitatea de a apăra complici amenințători, necesitatea de a apăra persoane apropiate sau, de ce nu, practici de a determina false mărturisiri pentru închiderea artificială a unor dosare, concomitent cu ridicarea statisticilor milițienești pe cele mai înalte culmi posibile.

Altfel spus, orice măsura cere o contra-măsura.

Astfel este cazul, spre exemplu, în criptologie. O nouă metodă de criptare nemaiîntâlnită până atunci va atrage după sine atenția numeroaselor grupuri de cercetători pasionați care, cu siguranță, nu vor mai dormi liniștiți până când nu vor găsi cheia de decriptare care să egalizeze scorul. Cine a văzut filmul The Immitation Game despre viața lui Alan Turing, părintele calculatoarelor de astăzi şi autorul testului care îi poartă numele[4], şi despre descifrarea de către englezi a codului de comunicare navală Enigma al lui Hitler în al doilea război mondial, are o idee completă despre sensul afirmației anterioare.

În fine, inteligenţa artificială a ajuns şi în zona predicțiilor[5], fie cu privire la costurile şi rezultatul unor proceduri judiciare, fie cu privire la ce soluţie este probabil să dea un anumit judecător, bazat pe deciziile sale anterioare (o aşa numită activitate de profiling).

Interesant aici este cazul Franței, unde programul Predictice care realiza predicții asupra costurilor şi soluțiilor judecătorilor, prin analiza jurisprudenței din baza de date electronică, a fost intens dezbătut public. Destinat inițial avocaților, acesta a fost folosit experimental şi de judecători, însă pare că nu a convins din moment ce Xavier Ronsin, președintele Curţii de Apel din Rennes, a emis un comunicat de presă, citat de Editura Dalloz[6], în care a spus că acesta nu aduce niciun beneficiu în plus faţă de motoarele de căutare deja folosite în respectiva instanţă.

Franța a mers chiar mai departe pe acest drum, sancționând de-a dreptul penal prin noua legislație de reformare a justiției[7], utilizarea datelor de identificare ale judecătorilor şi grefierilor în scopul de a realiza o activitate de analiză şi comparare a hotărârilor judecătorești pentru a putea prezice decizia care va fi dată de un judecător (sau grefier, dacă e cazul) într-un dosar concret.

b. A doua ipoteză a intrării digitalizării și / sau a inteligenței artificiale în instanţă, ca asistent în procesul administrativ al justiției, nu pune probleme de etică, nici principiale.

Nu poate fi decât binevenit algoritmul care ajută grefierul la managementul dosarelor, spre exemplu, să introducă în mod automat termenele de judecată și să bifeze toate check-box-urile aplicației interne Ecris, necesare pentru statistică, scutindu-l astfel pe grefier de minute de muncă repetitivă şi care nu aduce nicio plusvaloare[8].

La fel și algoritmul care generează proiecte de încheieri, scutindu-l pe grefier să mai scrie de la zero toate textele neutre pe care le conține orice astfel de document.

c. Pentru ipoteza în care algoritmul ia decizia juridică, exemplul cel mai la îndemână este cel al Estoniei care a inițiat deja, prin Ministerul Justiției, un proiect care să creeze un judecător robot pentru soluționarea cauzelor de importanță redusă cu valoarea obiectului mai mică de 7.000 de euro. În teorie, părțile vor încărca (upload) informațiile relevante ale dosarului în baza de date a programului, iar acesta va emite soluția.

Dincolo de dificultățile tehnice și dincolo de imobilismul ministerului nostru de justiție, îmi păstrez scepticismul că o astfel de idee ar putea fi privită favorabil, la acest moment, dar şi într-o fereastră de timp mediu, la Curtea Constituțională a României. Deși există la nivel individual excepții remarcabile (două – sigur şi cel puţin trei – probabil), conservatorismul instituției şi deficitul mentalitar de conectare la prezentul european face greu de crezut că există o masă critică pentru acceptarea unei astfel de idei. Să ne reamintim în materia dublului grad de jurisdicție în domeniul procesual civil, ne-cerut de niciun organism internațional, nici măcar de Consiliul Europei, că instanța de contencios constituțional a considerat că judecătoriile unde își desfășoară activitatea judecători educați prin Institutul Național al Magistraturii, numiți prin decret de președintele țării, chiar tineri fiind, nu știu să aplice legea aşa cum se știe la Curtea Constituţională şi deci, nu prezintă atributele de încredere necesare pentru a le lăsa pe mână sarcina de a pronunța hotărâri definitive în dosare cu o miză (măcar financiară) cu mult mai mică faţă de nivelul estonian ai celor 7000 de euro, cum ar fi plângerile contravenționale[9].

Ipoteza în care algoritmul înlocuiește judecătorul este extrem de sensibilă şi s-ar putea să nu se producă, cel puţin în prezentul cadru în care este construită societatea actuală, fundamentată pe noțiuni precum stat de drept, drept la un proces echitabil sau dreptul părții de a fi audiată de un judecător.

O astfel de concluzie nu se întemeiază deci pe o presupusă impotență tehnică, ci mai degrabă pe faptul că acest plan al realității ar implica alterarea unor noțiuni etice şi principiale care țin de modul de organizare a societăţii în cadru democratic.

În orice caz, chiar trecând cu un generos exercițiu de imaginație peste aceste impedimente, înlocuirea judecătorului cu un algoritm nu ar trebui să poată fi impusă de legiuitor, măcar în cazul litigiilor cu o anumită miză de tip mediu şi superior, ci ar trebui să aibă la bază acordul părții de a renunța la a mai fi prezent în faţa unui judecător – persoană umană.

În anii 1950, când redactorii Convenției Europene a Drepturilor Omului au insistat în cadrul articolelor 5 (penal) şi 6 (civil şi penal) asupra dreptului persoanei de a fi primit în faţa unui judecător pentru a fi audiat, cel mai probabil nu au avut în minte o entitate abstractă de tipul unei cutii a adevărului, şi nici măcar un android prietenos, chiar cu faţă umană, dar cu un ciocănel într-una dintre mâinile bionice, de tipul robotului Sofia – cu cetățenie saudită, creat să semene la înfățișare cu actrița Audrey Hepburn[10].

d. În fine, pentru ipoteza în care algoritmul nu ia decizia juridică finală, dar asistă pe judecător în acest proces, voi analiza exemplul notabil[11] al Statelor Unite ale Americii şi al algoritmului Compas[12].

Intersecția dintre inteligența artificială și decizia judecătorului a fost recent analizată în Statele Unite ale Americii în cauza Statul v. Loomis[13] (State v. Loomis), în fața Curții Supreme din Wisconsin[14].

Litigiul a fost unul de natură penală în care persoana condamnată, domnul Eric L. Loomis, a contestat în calea de atac limitele dreptului la un proces echitabil (right to due process) aducând în atenție faptul că individualizarea pedepsei sale fusese făcută pe baza unui raport scris, generat de un algoritm denumit Compas, produs de o companie privată – Northponte, referitor la riscul de recidivă, prin luarea în considerare a datelor rezultate din audierea persoanei în cauză, precum și pe baza informațiilor din cazierul sau judiciar.

Domnul Loomis s-a plâns de faptul ca nu a putut contesta acest raport, neavând acces la conținutul algoritmului nici el, dar nici judecătorul.

Analizând plângerea, decizia judecătorească a găsit câteva puncte slabe ale soft-ului subliniind spre exemplu, faptul că acesta furnizează raportul pe baza unor date agregate cu relevanță pentru grupuri sociale mari, astfel că nu răspunde în toate situațiile nevoii ca pedeapsa penală să fie stabilită printr-o analiză individuală și particulară pentru fiecare caz în parte, cu atât mai mult în ipoteza în care persoana ar face parte dintr-un grup minoritar. A mai precizat Curtea că lipsa accesului direct sau prin expertiza de specialitate la codul sursă, din rațiuni privind secretul comercial, atât a judecătorului cât și a persoanei în cauză, nu reprezintă o problemă atât timp cât există transparență cu privire la datele care sunt furnizate algoritmului și pe baza cărora este emis raportul, şi atât timp cât există informarea corespunzătoare a persoanei interesate.

A mai observat Curtea că raportul respectiv nu este folosit pentru a stabili în mod direct natura și nivelul pedepsei, ci acesta reprezintă doar unul dintre elementele aflate la dispoziția judecătorului.

În fine, decizia Curții a fost aceea că dreptul la un proces echitabil al persoanei în discuție nu a fost încălcat atât timp cât judecătorul rămâne responsabil de decizia finală, putând înlătura concluziile raportului privind riscul de recidivă în exercitarea atribuției sale de a realiza o individualizare a pedepsei în concret.

Deși soluția finală confirmă legalitatea utilizării unui astfel de instrument din perspectiva dreptului la un proces echitabil, din tonul general al considerentelor se desprinde dorința judecătorilor de a încuraja un scepticism sănătos, atât în privința acurateței raportului cât și în privința ipotezei când acesta ar privi o persoană care face parte dintr-o minoritate cu caracteristici speciale, neîncadrabile în cele ale grupurilor sociale avute în vedere de baza de date utilizată de algoritm.

Închizând pentru moment discuția şi privind prin fereastra exemplelor şi soluțiilor – chiar jurisdicționale, arătate mai sus, se poate spune că deși nu au fost atacate toate problemele relevante si nu s-a dat răspuns tuturor anxietăților imaginabile, pasărea e zburată din colivie și înapoi nu mai poate fi readusă.

Discuția a fost începută și tot ce trebuie făcut acum este să fie găsită secţiunea de aur, raportul de proporționalitate perfect între beneficiile și costurile algoritmizării justiției.

Sună destul de simplu, nu?


[1] https://rossintelligence.com/ – Motto-ul Companiei este Make today the last day you dread legal research [Faceți astăzi să fie ultima zi în care vă temeți de cercetarea juridică].
[2] Disponibil aici.
[3] Disponibil aici.
[4] Testul Turing testează capacitatea unei entități artificiale, a unui algoritm, de a manifesta un comportament inteligent echivalent cu sau care nu poate fi deosebit de cel al unui om. În măsura în care un organism artificial ar trece testul Turing, s-ar putea spune despre acesta că are aparența existenței conștiinței similare oamenilor.
[5] Există mai multe astfel de aplicaţii, care însă nu vor fi analizate aici în detaliu, cum ar fi Luminance Doctrine, LexisNexis, Dalloz sau Case Law Analytics în Franţa, ori HART (Harm Assessment Risk Tool), algoritm care intenționează prezicerea riscului de recidivă în Marea Britanie.
[6] Disponibil aici.
[7] Articolul L. 111-13 din Codul justiției administrative [Code de justice administrative], modificat prin articolul 33 din Legea nr. 2019-222 din 23 martie 2019 privind programul pentru 2018-2022 şi privind reforma justiției – Datele de identitate ale magistraților și ale membrilor grefei nu pot fi reutilizate pentru a face obiectul sau în scopul evaluării, analizei, comparării sau prezicerii practicilor lor profesionale reale sau presupuse. Încălcarea acestei interdicții este pedepsită de pedepsele prevăzute la articolele 226-18.226-24 și 226-31 din Codul penal, fără a aduce atingere măsurilor și sancțiunilor prevăzute de Legea nr. 78-17 din 6 ianuarie 1978 privind prelucrarea datelor, fișiere și libertăți [Les données d’identité des magistrats et des membres du greffe ne peuvent faire l’objet d’une réutilisation ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues aux articles 226-18,226-24 et 226-31 du code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés].
[8] Pentru evitarea oricăror confuzii, fac precizarea că noţiunea de plusvaloare a fost intenționat aleasă aici pentru a sublinia, prin contrast cu sensul ei intenționat originar, scăderea eficienţei instituției prin indisponibilizarea grefierilor în sarcini repetitive, fără legătură directă cu activitățile jurisdicționale, cum e cazul activităților care ajută statistica, dar nu şi părțile dosarului. În condiţiile în care termenul plusvaloare a fost consacrat de părintele comunismului, Karl Marx, folosirea sa creează, sper, o ironie contextuală, comunismul în întregime fiind celebru prin ineficiență, excluzând poate din această categorie doar activitățile de reprimare a dizidenților.
[9] Prin pct. 2 din motivarea Curţii Constituţionale în Decizia nr. 500 din 15 mai 2012, publicată în Monitorul Oficial al României nr. 492 din 18 iulie 2012, s-au precizat următoarele: 2. Prin raportare la prevederile constituţionale ale art. 21 alin. (1)-(3) privind accesul liber la justiţie şi dreptul la un proces echitabil, art. 24 alin. (1) privind dreptul la apărare, art. 124 alin. (2) privind unicitatea, imparţialitatea şi egalitatea justiţiei şi art. 129 potrivit cărora, „împotriva hotărârilor judecătoreşti, părţile interesate şi Ministerul Public pot exercita căile de atac, în condiţiile legii”, Curtea urmează să îşi reconsidere jurisprudenţa în sensul admiterii excepţiei de neconstituţionalitate având în vedere că, în practică, unele instanţe de judecată, în lipsa unei căi de atac împotriva hotărârilor pe care le pronunţă, absolutizează prezumţia de legalitate şi temeinicie a procesului-verbal de constatare şi sancţionare a contravenţiilor în materia circulaţiei pe drumurile publice. Aceste instanţe nu îşi mai exercită astfel rolul activ în ceea ce priveşte administrarea tuturor probelor utile, pertinente şi concludente în cauză, respingând astfel plângerile contravenţionale fără a intră în cercetarea fondului.
[10] Disponibil aici.
[11] Un instrument similar de prezicere a riscului de recidivă există şi în Marea Britanie – HART (Harm Assessment Risk Tool).
[12] Correctional Offender Management Profiling for Alternative Sanctions.
[13] State v Loomis 881 N.W.2d 749 (Wis. 2016), Section 16.
[14] Disponibil aici.


Jud. Claudiu Drăguşin
Judecătoria Sectorului 4


Aflaţi mai mult despre , , ,

Puteţi publica şi dumneavoastră pe JURIDICE.ro. Publicăm chiar şi opinii cu care nu suntem de acord. JURIDICE.ro este o platformă de exprimare. Publicarea nu semnifică asumarea de către noi a mesajului. Pentru a publica vă rugăm să citiţi Condiţiile de publicare, Politica privind protecţia datelor cu caracter personal şi să ne scrieţi la adresa redactie@juridice.ro!







JURIDICE.ro utilizează şi recomandă SmartBill
JURIDICE GOLD pentru studenţi foarte buni, free
Newsletter JURIDICE.ro
Youtube JURIDICE.ro
Instagram JURIDICE.ro
Facebook JURIDICE.ro
LinkedIn JURIDICE.ro

Lasă un răspuns

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Important: Descurajăm publicarea de comentarii defăimatoare. Vor fi validate doar comentariile care respectă Politica JURIDICE.ro şi Condiţiile de publicare.