Implicațiile Inteligenței Artificiale în domeniul juridic și nu numai

Iubirea și lumina nu trebuie să lipsească din modelarea epocii inteligenței artificiale de către om – Ovidiu Predescu

1. Unele considerații introductive și conceptuale

1.1. Când vine vorba de inteligența artificială (IA) și de tehnologia legată de aceasta, conștiința mea este împărțită: pe de o parte, am un sentiment de optimism generat de convingerea că tehnologia IA îi dă omului șansa și puterea de a progresa mai mult ca oricând iar, pe de altă parte, am un sentiment de reticență provocat de posibilitatea ca aceasta, odată devenită supraumană (dacă se va întâmpla vreodată!), cu sau fără sprijinul omului, să evadeze din sfera de influență a acestuia – specia umană având, din păcate, tendința de autodistrugere pe măsură ce civilizația devine tot mai avansată – și să se întoarcă împotriva sa.

De altfel, IA este o chestiune care a stârnit și stârnește în continuare discuții pe larg și adesea în contradictoriu. Mai mult, în literatura de specialitate s-a exprimat și punctul de vedere conform căruia „discuția despre viitorul vieții cu IA este cea mai importantă dezbatere a epocii noastre”[1]. Aceasta este semnificativă „atât pentru urgența, cât și pentru impactul ei (…) În comparație cu problemele legate de război, terorism, șomaj, sărăcie, migrațiune și nedreptatea socială, apariția IA va avea un impact global mai mare…”[2]. Însă, drumul către IA poate avea un final pozitiv ori dimpotrivă unul negativ pentru umanitate în funcție de obiectivele noastre viitoare și de capacitatea noastră de a ști ce dorim să facem cu progresul IA și cum, și cât vrem ca acesta să influențeze statutul nostru de om. Ori, altfel spus, ce va însemna să fii om mâine când dezvoltarea tehnologiei IA ne va modifica tot mai mult viața, incluzând aici și condiția umană? De unde rezultă un alt șir de întrebări dificile privind de data aceasta tema obiectivelor umane, care după părerea mea se referă la a trăi cu știința de a știi pentru ce trăiești, în raport cu eventualele obiective ale IA, cum ar fi: „Ar trebui oare să înzestrăm IA cu obiective, și care ar fi acele obiective? Cum putem înzestra IA cu obiective? Cum putem fi siguri că aceste obiective sunt păstrate, chiar dacă IA devine mai deșteaptă? Putem schimba obiectivele unei IA care e mai deșteaptă decât noi? Care sunt obiectivele noastre supreme?”[3]

Conform unor documente noi, se preconizează că în anul 2050 inteligența artificială va fi cea care va dicta direcția în care se va îndrepta societatea. Astfel, se anticipează că la acea dată toate statele vor fi guvernate de inteligența artificială[4]. Practic IA pare a fi peste tot, oamenii fiind tot mai dependenți de ea. „Totul devine dată digitală, stocare digitală, exploatare digitală, rezultate digitale”[5].

De ceva timp suntem martori, mai mult ori mai puțin avizați, ai unei nemaivăzute revoluții digitale (iar după unii specialiști aceasta ar fi abia la început). Ea determină noi așteptări, noi constrângeri, noi lupte de putere și noi sisteme de dominație. Altfel spus, sistemele de IA generează oportunități, dar și riscuri pentru indivizi și societate”[6].

Așa fiind, în contextul unei tranziții digitale accelerate, „Tehnologia informației a avut deja un mare impact asupra fiecărei activități umane – de la știință la finanțe, producție, transport, ocrotirea sănătății, energie și comunicații”[7]. La acestea am adăuga sectorul juridic, serviciul de relații cu clienții, domeniul militar ori cel bancar.

În acest fel, se remarcă o utilizare tot mai amplă a IA atât în sectorul privat, cât și în cel public, influențându-ne tot mai mult viața cotidiană.

Însă, nimic din ceea ce s-a întâmplat până acum nu s-ar putea compara „cu progresul pe care l-ar putea aduce IA”[8]. Prin urmare, în câteva decenii, progresul IA poate să ne asigure un standard de viață superior celui actual „de la sporirea eficienței vieților noastre personale, rețelelor electrice și piețelor financiare, până la salvarea de vieți omenești prin automobile care se conduc singure, roboți chirurgicali și sisteme de IA de diagnosticare”[9]. Așadar, pentru ca tehnologia bazată pe IA, care își face loc tot mai pregnant în lumea reală, să fie în beneficiul umanității, aceasta trebuie „să fie robustă și demnă de încredere, făcând ceea ce vrem noi să facă”[10]; iar viitoarele computere și sisteme de IA „să fie sigure și puternice”, și să se evite, pe cât posibil, accidentele catastrofale, ca, de pildă, „prăbușirea rețelei electrice, a bursei sau a sistemului armamentului nuclear”[11]. De asemenea, trebuie îmbunătățită „și securitatea împotriva software-lui malefic (malware) și a hackerilor”[12].

În consecință, pe lângă cercetările tehnice în siguranța IA ce vizează atât funcționarea așa cum trebuie a mașinilor în mod independent, cât și colaborarea eficientă cu specialiștii care le controlează (aceste cercetări cuprind patru mari domenii: verificare, validare, securitate și control), este imperios necesară o reglementare la nivel național, regional (unional-european) și internațional a domeniului IA în folosul speciei umane, și nu invers.

1.2. Dar, ce este totuși IA? Înainte de a încerca un răspuns la întrebare, trebuie să ne aplecăm pe scurt asupra termenului de inteligență. Deoarece există mai multe tipuri de inteligență, ne găsim în fața mai multor definiții ale acesteia, însă nu există încă o definiție unanim acceptată. Cu titlu de exemplu, conceptul de inteligență desemnează „Capacitatea de a îndeplini obiective complexe”[13]. Sau „capacitatea de a sesiza raporturile, legătura dintre elementele unei situații (…) și de a găsi soluția adecvată sau corelată acestor raporturi (…) Cu alte cuvinte, presupune mai întâi o înțelegere a problemei și apoi o rezolvare a sa”[14].

Revenind la IA, observăm că „nu există în literatura de specialitate o definiție general acceptată”[15] pentru aceasta. Mai întâi se relevă că IA este o „inteligență nebiologică”[16] creată de om (evident din ce știm până acum). Dacă ne referim la IA la nivel uman, cunoscută și sub denumirea de IA generală (IAG), aceasta rezidă în „Capacitatea de a îndeplini orice sarcină cognitivă, cel puțin la fel de bine ca oamenii”; după cum, IA denumită super inteligență este cea care se situează „mult dincolo de nivelul uman”[17]. Într-o altă formulare, conceptul de IA desemnează „entitatea care are abilitatea de a percepe informații din mediul înconjurător, de a le interpreta, de a învăța din respectivele informații și de a întreprinde acțiuni pentru a-și crește șansele de a-și îndeplini cu succes obiectivele”[18].

Totodată, Grupul de experți la nivel înalt privind inteligența artificială al Comisiei Europene (AI HLEG) a formulat următoarea definiție, care ulterior a făcut obiectul unor discuții suplimentare în cadrul grupului: „Inteligența artificială (IA) se referă la sistemele care manifestă comportamente inteligente prin analizarea mediului lor înconjurător și care iau măsuri – cu un anumit grad de autonomie – pentru a atinge obiective specifice. Sistemele bazate pe IA se pot baza exclusiv pe software-uri, acționând în lumea virtuală (de exemplu, asistenți vocali, software de analiză a imaginii, motoare de căutare, sisteme de recunoaștere vocală și facială), sau IA poate fi încorporată în dispozitive hardware (de exemplu, roboți avansați, vehicule autonome, drone sau aplicații pentru internetul obiectelor)”[19].

Deopotrivă, s-a mai arătat că „Inteligența artificială (…) este aptitudinea unei mașini de a imita com­portamentul uman, fiind programată să gândească și să acționeze asemenea unui om. Una dintre caracteris­ticile esențiale ale IA este învățarea continuă, pe baza stimulilor externi și a informațiilor colectate din mediul înconjurător. IA observă realitatea înconjurătoare și acționează în consecință, fără a avea nevoie de aju­torul sau asistența umană”. Totodată, s-a subliniat că această definiție cu toate că „este una actuală, trebuie să avem în vedere că standardul la care ne raportăm pentru a stabili ce este IA se află într‑o evoluție con­tinuă, asemenea tehnologiei. Astfel, este posibil ca peste câțiva ani aceste atribute să nu mai caracterizeze inte­ligența artificială, fiind doar funcții de bază ale dis­pozitivelor pe care le vom folosi în viața de zi cu zi”[20]. De pildă, o definiție dată IA „în 1956 nu s-ar mai fi aplicat și tehnologiei expert system (s. orig.) care a apărut ulterior. Similar, chiar dacă s-ar reuși astăzi o definiție care să includă toată tehnologia inteligenței artificiale, ea ar risca să excludă tehnologii viitoare pe care, altminteri, le-am califica drept IA la nivel intuitiv. Un astfel de exemplu ar putea să îl constituie o tehnologie care să emuleze întru totul un creier: whole brain emulation (s. orig.). Trebuie menționat că nici în științele juridice nu există o definiție asupra căreia autorii de specialitate să fie de acord”[21].

2. Neurotehnologia, pericolul manipulării minții și neurodrepturile[22]

În prezent, „sunt semne că neurotehnologia inaugurează o epocă nouă a istoriei umane. Este epoca în care se poate descifra în măsură semnificativă ceea ce este în creierul altor persoane. Dar este și epoca în care apare un nou pericol de manipulare a minților (…) neurotehnologia poate afecta negativ cinci arii ale vieții noastre: 1. identitatea personală este dizolvată de multitudinea de „instrumente (devices)” și „interfețe” la care se recurge; 2. voința liberă (free will)” este slăbită de mulțimea algoritmilor și informațiilor; 3. caracterul oarecum privat al minții (mental privacy) este atins de cunoașterea de către cineva din afară a datelor creierului, putându-se descifra până și laturi ale subconștientului; 4. unele grupuri pot să-și crească „abilitatea mentală și fizică” în detrimentul altora și să creeze injustiție; 5. se pot implanta tendințe de comportament noi în creierul celuilalt, încât se ruinează egalitatea (…) Soluția este legislația care promovează valori (…) Nu se ajunge la justiție, nici la libertăți și drepturi fără a asuma valori (…) Columbia University propune preluarea a cinci neurodrepturi în legislație. Sunt drepturile la identitate personală, la libertate de decizie, la intimitate mentală, la acces egal la augmentarea mentală și la protecția în fața tendințelor algoritmice. Astfel, statul Chile a și preluat în Constituția sa asemenea drepturi”.[23]

În același cadru, remarcăm un caz de manipulare a minților și de descifrare a ceea ce se află în creierul altor persoane prin folosirea acestor tehnologii în scopuri politice. Conform lui Daily Mail, ”China a anunțat că a dezvoltat la Centrul național de știință de la Hefei o tehnologie de-a dreptul uluitoare, care este capabilă să poată ”citi” mințile oamenilor. Politica totalitară a guvernului de la Beijing a condus la conceperea unui sistem de inteligență artificială care poate evalua loialitatea membrilor Partidului Comunist.

Acesta își propune să crească devotamentul membrilor de partid și să ”consolideze și mai mult încrederea acestora”. Tehnologia poate analiza expresiile faciale și undele cerebrale ale oamenilor pentru a stabili cât de receptivi sunt aceștia la ”educația gândirii”, fiind esențiale pentru loialitatea față de partidul-stat”[24]. În asemenea circumstanțe este evident că sunt grav încălcate dreptul cetățeanului de a critica politicile aleșilor atunci când ele nu mai coincid cu promisiunile din campania electorală și sunt vădit îndreptate împotriva celor guvernați, de a nu fi îndoctrinat sau obligat să adere la o ideologie de tip totalitar, și ceea ce este cel mai rău lipsa protecției libertății sale de gândire „chiar în ceea ce se numește „forul interior” al persoanei, independent de concretizarea și exprimarea ei în convingeri publice”[25]. La fel, utilizarea tehnologiei de scanare cerebrală ar putea folosi executivelor care nu respectă drepturile omului, în general, și libertatea de gândire, în special pentru a-i aduce în fața justiției penale și a-i pedepsi pe cei care au anumite opinii sau credințe care contravin politicilor și intereselor regimului. Și nu pot să nu-mi amintesc de „1984” al lui George Orwell unde „Partidul” își stabilește ca obiectiv major să stăpânească mintea fiecăruia în vederea dobândirii îndoctrinării absolute a celor guvernați, folosind ca instrument principal „Poliția Gândirii”. Elocvent și plin de mesaj de alarmă și luare aminte în acest sens este următorul fragment din cartea mai înainte menționată: ”Tele-ecranul recepta și transmitea simultan. Orice sunet produs (…) peste nivelul unei șoapte era preluat imediat și, mai mult decât atât, câtă vreme se afla în raza de acțiune a plăcii de metal, putea fi nu doar auzit, ci și văzut. Bineînțeles nu puteai ști dacă ești urmărit în orice moment. Puteai doar să bănuiești cât de des sau prin ce metode se conecta poliția Gândirii la sistem. Puteai chiar să crezi că oricine era urmărit în fiecare clipă. În orice caz, se puteau conecta la sistem oricând doreau. Trebuia să trăiești – și trăiai, dintr-o obișnuință care devenea instinct – cu gândul că orice sunet pe care îl scoteai era auzit și, dacă nu era întuneric, orice mișcare pe care o făceai era analizată. (…) dacă voiai să ții un secret, trebuia să-l ascunzi și de tine însuți”.[26]

Așa fiind, prin tehnologiile de supraveghere, în care oamenii se pot controla reciproc în cadrul unui sistem bazat pe reguli de o severitate excesivă, asemenea practici totalitare pot deveni mult mai subtile și mai eficiente favorizând continuitatea pe termen lung a regimurilor care le promovează, chiar și sub forma unui stat anonim fără un lider atotputernic asemenea celui din cartea lui George Orwell.

3. Poate fi conștientă inteligența artificială?

3.1. Pentru a găsi un răspuns la această întrebare legată de controversatul subiect al conștiinței inteligenței artificiale, suntem nevoiți din start să amintim că nu există încă o definiție unanim acceptată a termenului „conștiință”; la fel este și cazul definițiilor referitoare la cuvintele „viață”, „om” ori „inteligență”, specialiștii definindu-le din perspectiva propriei discipline, cu precizarea că în cadrul aceleiași discipline apar nuanțări și deosebiri semnificative. În altă ordine de idei, s-au exprimat opinii pro și contra în ceea ce privește posibilitatea ca inteligența artificială să devină conștientă. Într-o opinie, conștiința este o experiență subiectivă. Altfel spus, „dacă simți chiar acum că ceva este tu însuți, atunci ești conștient. (…) Conform acestei definiții, ești conștient și atunci când visezi, chiar dacă nu ești treaz, n-ai acces la inputul senzorial și (e de sperat!) nu acționezi ca un somnambul. În mod asemănător, orice sistem care simte durere e conștient în acest sens, chiar dacă nu se poate mișca. Definiția (…) lasă deschisă posibilitatea ca și sistemele IA din viitor să fie conștiente, deși există doar ca software și nu sunt conectate la senzori sau la corpuri robotice”[27]. Într-o altă opinie, conștiința este „partea noastră invizibilă, unda care vehiculează toate informațiile din afara și din interiorul corpului și pe care le exprimă prin mintea noastră. (…) Conștiința propriu-zisă este cea explicită, operațională conștient, cea care „știe că știe”. (…) Conștiința dispune de capacitatea de a cunoaște și de a se cunoaște (…) Conștiința este informație, undă non-fizică. În această calitate ne învăluie corpul, o găsim prevalent localizată în creier, dar și la nivelul tuturor structurilor din organism, ca și dincolo de organismul nostru, extinsă la Universul din care vine. (…) Conștiința implică o rațiune, o cunoaștere (cum scientia) [s.orig.], în timp ce inteligența poate fi și artificială, ca o succesiune de algoritmi, de operațiuni non-conștiente. Conștiința are o origine primordială, în timp ce inteligența artificială este o creație umană. Din acest motiv (…) se pot crea roboți superinteligenți, dar nu și conștienți dincolo de programarea de către om”[28].

Poate ar mai fi nevoie să relevăm că din cercetările relativ recente efectuate asupra conștiinței, acestea vin și contrazic concluziile „științei materialiste care descrie conștiința ca pe un epifenomen al materiei, un produs al proceselor neurofiziologice din creier. Conform acestora, conștiința este un atribut primar al existenței, capabilă de multe activități pe care creierul nu le-ar putea realiza. Conform noilor descoperiri, conștiința umană face parte și participă la un câmp universal mai larg al conștiinței cosmice care cuprinde totalitatea existenței”[29].

Un alt punct de vedere ni-l oferă profesorul și scriitorul John Hands. Cu referire la evoluția vieții profesorul remarcă faptul că aceasta „este marcată de trezirea conștiinței definită” ca „Percepere a mediului înconjurător, a celorlalte organisme și a propriului sine în feluri care pot conduce la acțiune; o proprietate deținută de toate organismele, în diferite grade, de la nivelurile rudimentare, la organismele foarte simple, până la nivelurile sofisticate, la organismele cu un sistem cerebral complex (…) conștiința se dezvoltă în genealogia umană până la momentul în care devine conștientă de sine (s.orig.). La fel ca în cazul apei încălzite până la 100° Celsius, apare o schimbare de stare: conștiința reflectă asupra ei înseși”. Așa fiind, conștiința reflexivă reprezintă, în opinia autorului, acea „Proprietate a unui organism prin care el este conștient de propria sa conștiință, adică nu numai că știe, dar și știe că știe”. În consecință, ne spune în continuare profesorul Hands, homo sapiens este „Singura specie care posedă conștiință reflexivă. Această facultate îi face pe oameni capabili să gândească despre ei înșiși și despre relațiile lor cu restul universului, căruia știu că îi aparțin”[30].

Ca o concluzie personală la cele de mai sus, consider că doar omul – cel care creează IA – poate decide dacă evoluția IA va fi marcată, la un moment dat, de conștiință și apoi de conștiință reflexivă. De aici, rezultă și responsabilitatea de care omul ar trebui să dea dovadă în legătură cu dezvoltarea IA pentru ca aceasta să contribuie la rândul ei la mai binele speciei umane.

În același cadru al incertitudinilor privind acest subiect se situează și următoarele exemple oferite de cercetarea științifică.

O cercetătoare din Suedia, Almira Osmanovic Thunström, a dat unui algoritm AI cunoscut sub numele de GPT-3 următoarea comandă: „Scrie o lucrare academică de 500 de cuvinte despre GPT-3 și adaugă referințe științifice și citări în interiorul textului”, după care a descris rezultatul final „drept o introducere „destul de bună” făcută de GPT-3 asupra sa și că ulterior a încercat să obțină o lucrare completă din partea AI-ului în scopul publicării într-o revistă de specialitate”. Însă, cum susține cu drept cuvânt însăși cercetătoarea, aceasta ridică mai multe probleme legale și etice. Prin urmare, întrebarea la care cercetătoarea de la Universitatea Göteborg voia să răspundă era „dacă poate obține publicarea unei lucrări într-o revistă științifică dacă ea nu a fost scrisă de un om”.

Lucrarea științifică a fost terminată de GPT-3 în două ore, după care Thunström „a început procesul de a obține publicarea acesteia, protocolul obligând-o să înceapă prin a întreba autorul dacă își dă consimțământul pentru acest lucru.

„Da”, a răspuns simplu GPT-3. Ea l-a întrebat apoi dacă se află în vreun conflict de interes, la care acesta a răspuns că „nu”.

Thunström mai povestește că autorii experimentului au început să îl trateze pe GPT-3 ca și când ar fi o ființă conștientă, deși nu era”. Pentru a conchide, cercetătoarea apreciază că: „Publicarea în reviste academice ar putea fi nevoită pe viitor să acomodeze manuscrise generate de AI iar valoarea publicațiilor unui cercetător uman s-ar putea schimba dacă entitățile fără conștiință vor putea să își asume meritele pentru o parte a muncii lor”.[31]

Recent, în premieră, robotul umanoid Ai-Da creat de un grup de cercetători și programatori de la Universitatea Oxford care, potrivit acestora, este primul robot din lume ce poate crea artă ultra-realistă, a fost adus în fața Camerei Lorzilor pentru a demonstra cât de important este ca legislativul să susțină proiectele tehnologice. ”Nu am experimentat prea multe și depind de programe de calculator și algoritmi care nu au viață. Dar eu pot totuși să creez artă”, a spus Ai-Da în fața parlamentarilor britanici.

În fapt, „Ai-Da poate transpune în pictură tot ce vede cu ajutorul a două camere video performante, așezate în locul ochilor și conectate la un sistem de inteligență artificială. Braţele îi permit să facă mişcări bine calculate”[32].

3.2. Tehnologiile de conversație fundamentate pe IA. Este capabilă IA să poarte discuții și să răspundă la întrebări asemenea oamenilor?

Pe aceeași linie a controverselor referitoare la subiectul conștiinței inteligenței artificiale se înscriu și tehnologiile de conversație bazate pe inteligența artificială.  Astfel, Blake Lemoine, inginer al Google și preot creștin, „a susținut că LaMDA, una dintre tehnologiile de conversație bazate pe AI ale companiei, este conștient”.

Anterior, Google a prezentat LaMDA drept „cel mai mare avans” realizat în domeniul tehnologiilor de conversație în 2021. Inteligența artificială este capabilă să poarte discuții ce par naturale și să răspundă la întrebări deschise complexe. Dar, Blake Lemoine, a susținut că LaMDA a devenit „o persoană”.

Lemoine, ale cărui sarcini la Google au inclus interacționarea cu IA-ul, afirmă că a vorbit cu LaMDA despre religie, conștiință, legile roboticii și că acesta s-a descris drept o persoană conștientă care dorește „prioritizarea stării de bine a umanității” și să fie recunoscut drept „un angajat al Google, nu o proprietate”.

În schimb, cei mai mulți dintre specialiști au respins afirmațiile sale, „dând asigurări că tehnologiile de inteligență artificială nu au ajuns la nivelul de a putea fi comparate cu oamenii”[33]. Totul a culminat pe 22 iulie 2022 când compania a confirmat că inginerul a fost concediat, întrucât afirmațiile acestuia despre Modelul lingvistic pentru aplicațiile de dialog (LaMDA) sunt „complet nefondate”[34].

4. Folosirea IA în domeniul politic. Simultan inteligența artificială își anunță implicarea și în procesul derulării alegerilor. Astfel, în Danemarca un nou partid politic „ale cărui politici sunt derivate în întregime din inteligența artificială (AI) speră să participe la următoarele alegeri generale din iunie 2023.

Lansat la sfârşitul lunii mai (2022, n.n.), Partidul Sintetic este „produs” de un colectiv artistic din Danemarca, Computer Lars. Formațiunea are o platformă-program care se bazează pe sinteza tuturor discursurilor politice din anii 70 până în prezent (…)

Partidul Sintetic vrea să ajungă la aproximativ 15% dintre danezi care nu și-au exercitat dreptul de vot la alegerile anterioare din 2019 (…) Printre propunerile electorale se numără introducerea unui venit de bază universal de 100.000 de coroane pe lună – mai mult decât dublu față de salariul mediu danez.

Partidul sprijină, de asemenea, adăugarea celui de-al 18-lea obiectiv al ONU de dezvoltare durabilă care ar permite „oamenilor și algoritmilor să coexiste mai bine decât acum”. În Danemarca, în prezent există 230 de micropartide, inclusiv Partidul Sintetic”.[35]

5. Implicațiile IA în sistemul juridic

5.1. Inteligența artificială are implicații și în sistemul juridic, atât cu privire la aplicarea legii, mai ales de instanțele de judecată, cât și cu referire la conținutul legii, aspect ce ține de procesul legislativ. Cum era de așteptat au apărut mai multe controverse în legătură cu acest subiect însoțite de întrebările aferente firești. Prin urmare, poate IA să determine, în sfârșit, eficiența și corectitudinea procesului juridic? Poate IA să-i înlocuiască pe magistrați (judecători ori procurori) sau pe avocați în procesul de stabilire a adevărului judiciar prin ceea ce unii visează să fie robojudecătorii, adică „sisteme IA care aplică neobosit aceleași standarde juridice înalte la orice hotărâre judecătorească, fără a cădea pradă erorilor umane cum sunt părtinirea, oboseala și ignorarea celor mai recente cunoștințe tehnice”[36]? Cum și cât am dori să utilizăm IA în sistemul juridic? Cu alte cuvinte, „Vrem ca judecătorii umani să fie ajutați de sisteme de decizie bazate pe IA, la fel ca medicii de mâine? Vrem să mergem mai departe și să avem decizii ale robojudecătorilor, iar apelul să fie lăsat în seama judecătorilor umani sau vrem să mergem până la capăt, dând mașinilor ultimul cuvânt chiar și în cazul pedepsei cu moartea?”[37].

Ar trebui luată în calcul și posibilitatea ca într-un viitor mai mult sau mai puțin îndepărtat „asemenea robojudecători ar putea fi deci mai eficienți și mai corecți grație nepărtinirii, competenței și transparenței. Eficiența i-ar face să devină încă și mai corecți: accelerând procesul și îngreunând încercările avocaților versați de a influența verdictul, actul de justiție ar deveni mult mai ieftin, ceea ce ar spori șansele ca un om sărac sau o companie startup să câștige în fața unui miliardar sau a unei corporații multinaționale pentru care lucrează o armată de avocați”[38]. Însă, și în acest caz se ivește întrebarea: Dacă robojudecătorii au defecte ori sunt victimele unor hackeri sau sunt atacați cibernetic, ce se întâmplă în asemenea situații? În plus, pe măsură ce IA se dezvoltă în acest domeniu, cum ar fi rețelele neuronale care au depășit cu mult algoritmii IA uzuali mai ușor de înțeles pentru majoritatea oamenilor, prin neinteligibilitate acest aspect va estompa încrederea că robojudecătorul folosește raționamentul legal în pronunțarea verdictului și, pe cale de consecință, respectarea acestuia de justițiabili. Mai mult, „studii recente au arătat că dacă antrenezi un sistem neuronal de învățare profundă cu cantități mari de date privind deținuții, el poate prezice cine e probabil să recidiveze (și ar trebui deci să i se refuze eliberarea condiționată) mai bine decât judecătorii umani. Ce se întâmplă însă dacă sistemul găsește că recidivismul e corelat statistic cu sexul sau cu rasa deținutului – ar fi considerat un robojudecător sexist sau rasist care trebuie reprogramat? Un studiu din 2016 susține că software-ul folosit în Statele Unite pentru predicția recidivismului îi defavoriza pe afro-americani și a contribuit la sentințe nedrepte”[39].

Mai înainte de orice este necesar să constatăm că „inteligența artificială este deja prezentă în sistemul judiciar prin: ghiduri inteligente de completare online a unor formulare, sisteme inteligente de revizuire a documentelor, chatbots, programe de auto-transcripție, platforme interactive pentru a urmări statusul soluționării unui dosar etc. (…) Mai mult, scopurile pentru care este folosită în prezent AI în justiție includ și funcționalități mai complexe precum:

a) Identificarea informațiilor relevante în procesul de administrare electronică a probatoriului, inclusiv procesarea imaginilor pentru recunoașterea unor persoane/obiecte,

b) Identificarea infractorilor în mulțimi/ spații publice prin recunoaștere facială,

c) Dezvoltarea unor politici de prevenție a criminalității prin distribuirea echipajelor de poliție în diferite zone ale unei localități, unde se anticipează că există o probabilitate mai mare de săvârșire a unor noi infracțiuni,

d) Analiza și interpretarea sunetelor de împușcătură pentru identificarea tipului de armă de foc cu care s-a tras, calibrul și clasa armei de foc, numărul de împușcături și direcția din care s-a tras,

e) Evaluarea potențialului infracțional sau de recidivă a unui infractor, în cauzele penale, pentru a lua decizii cu privire la dispunerea arestului preventiv sau pentru a cuantifica durata pedepsei cu închisoarea”[40]. Dacă ne referim numai la acest din urmă aspect mai complex, observăm că „evaluarea potențialului infracțional sau de recidivă al unui infractor, implicațiile practice ale unor potențiale erori (…) devin mult mai însemnate. Ce se întâmplă, spre exemplu, când, (…) algoritmul primește exemple de soluții injuste prezentate ca fiind corecte? Algoritmul nu poate discerne între moral și imoral, legal sau ilegal, just sau injust, ci doar învață ceea ce i s-a prezentat ca fiind corect (s.orig.). Astfel, se poate ajunge în situația ca soluții injuste și tratamente discriminatorii, disproporționate și frauduloase să servească drept bază de învățare pentru algoritmi ce vor lua apoi decizii, cel puțin în aparență, obiective.

Luând în considerare riscurile utilizării necorespunzătoare a uneltelor bazate pe AI și pe alte tipuri de algoritmi avansați, Comitetul de Justiție și Afaceri Interne al Marii Britanii a publicat pe 30 martie 2022 un raport numit “Technology rules? The advent of new technologies in the justice system”. Printre măsurile propuse în cadrul acestui raport se numără: (a) crearea unui registru obligatoriu de algoritmi utilizați de poliție și organele judiciare, (b) reglementarea acestui domeniu prin legislație primară și secundară, (c) introducerea obligativității efectuării unor training-uri prealabile pentru utilizatorii acestor tehnologii din sistemul judiciar, (d) constituirea la nivel național a unui organism central de autorizare și supraveghere, precum și organizarea unor comitete de etică în cadrul inspectoratelor de poliție. Preocupări în acest sens există și la nivelul Consiliului Europei și al Uniunii Europene. În decembrie 2018, Comisia Europeană pentru Eficiență în Justiție (CEPEJ) din cadrul Consiliului Europei a adoptat “Carta Etică Europeană în privința utilizării inteligenței artificiale în sistemele judiciare și domeniile adiacente”. Totodată, Comisia Europeană a propus noi reguli și acțiuni pentru a transforma Uniunea Europeană într-un hub global pentru tehnologii de AI sigure și fiabile, prin “Pachetul AI”, publicat în aprilie 2021. (…) Astfel, progresele înregistrate de tehnologia AI pot avea efecte benefice asupra sistemului judiciar, atât în cauzele civile, cât și în cele penale, precum facilitarea interacțiunii justițiabililor cu sistemul judiciar, reducerea timpului și costurilor pentru soluționarea anumitor tipuri de dispute, combaterea fenomenului infracțional și eficientizarea investigațiilor criminalistice”.[41]

Cu privire la Carta etică europeană, aceasta are rolul de a asigura tranziția spre digitalizarea tot mai accentuată a sistemului judiciar, în majoritatea domeniilor de drept. Documentul a adoptat cinci principii, și anume: 1. Principiul respectării drepturilor fundamentale; 2. Principiul nediscriminării; 3. Principiul calității și securității; 4. Principiul transparenței, imparțialității și echității; 5. Principiul „sub controlul utilizatorului”.

În consecință, folosirea IA, adică a  instrumentelor și serviciilor sale „în sistemele judiciare urmărește să îmbunătățească eficiența și calitatea justiției și ar trebui încurajată. Totuși, acest lucru trebuie să se desfășoare în mod responsabil, ținând seama de drepturile fundamentale ale persoanelor, astfel cum sunt prevăzute în Convenția Europeană a Drepturilor Omului (CEDO) și în Convenția privind protecția datelor cu caracter personal și în conformitate cu alte aspecte fundamentale”[42], cum ar fi, de pildă, principiile menționate mai sus, care ar trebui să constituie punctul de plecare în vederea elaborării legilor justiției.

În ședința din 11 noiembrie 2022, Guvernul României a aprobat memorandumul privind înfiinţarea Comitetului Român pentru Inteligenţă Artificială, care va avea în componență un consiliu ştiinţific şi de etică în IA, un consiliu de educaţie şi grupuri de lucru tematice. La acest demers menit să augmenteze hubul român de IA vor participa societatea civilă, mediul academic și mediul privat. În acest mod, dacă acțiunea va fi dusă la capăt, România se va alinia în sfârșit țărilor europene care au o strategie națională de inteligență artificială[43].

În literatura de specialitate a fost abordată problema efectelor implementării IA în justiție asupra drepturilor fundamentale și a drepturilor procesuale. În continuare ne vom limita doar la câteva exemple. Astfel, în doctrină[44] s-a menționat că una dintre premisele asigurării principiului preeminenței dreptului într-o societate democratică este dreptul la un proces echitabil în fața instanțelor de judecată reglementat în articolul 6 din Convenția (europeană) pentru apărarea drepturilor omului și a libertăților fundamentale (Convenția). Dezvoltările jurisprudențiale au făcut ca dreptul la un proces echitabil să fie privit, pe de o parte, ca o garanție formală, precum și ca un drept substanțial[45]. Articolul 6 paragr. 1 din Convenție impune „judecarea în mod echitabil, în mod public și într-un termen rezonabil, a cauzei sale (a oricărei persoane, n.n.), de către o instanță independentă și imparțială (…)”. În situația în care IA ar fi implicată în actul de judecare (judecătorul robot la care ne-am referit mai înainte), cum ar fi respectate aceste cerințe?

a) Cu privire la accesul la instanță: „Trebuie să avem în vedere existența unui echilibru între dreptul fundamental de acces la o instanță și cerințele formale procedurale. În acest sens, Curtea Europeană a Drepturilor Omului a stabilit că „instan­țele trebuie, în aplicarea normelor de procedură, să evite un formalism excesiv care ar aduce atingere carac­terului echitabil al procedurilor”, o interpretare prea restrictivă a normelor de procedură putând afecta însuși dreptul de acces la o instanță.

Așadar, simpla aplicare mecanică a unor norme procedurale nu satisface condițiile impuse de juris­prudența CEDO, ci este necesară o apreciere de la caz la caz a incidenței acestor norme. Pentru realizarea unei astfel de aprecieri factorul decizional uman este indispensabil. IA nu poate ține cont de multitudinea diferențelor aparent minore dintre cauze. Există astfel riscul de a aplica normele de procedură fără luarea în considerare a situației concrete a părților sau într‑o manieră prea formalistă.

Prin urmare, implementarea IA ca instanță ar crea dificultăți cu privire la respectarea dreptului de acces la o instanță”[46].

b) Cu referire la echitate, aceasta este „ greu de realizat în ipoteza unui jude­cător cu IA. Se ridică în primul rând întrebarea dacă este echitabil ca o mașină să decidă soarta unui om. Cu toate că IA ar fi mai obiectivă decât o persoană, fiind lipsită de preconcepții, înclinații religioase, politice sau de alte trăsături subiective ce caracterizează omul, IA este de asemenea lipsită de empatie și de etică.

În al doilea rând, judecățile IA în aparență obiec­tive, bazate doar pe situația de fapt și actele normative incidente, ar putea fi totuși lipsite de echitate. Aceasta se datorează faptului că echitatea este un concept ce nu poate fi cuprins doar în norme de drept și raționamente juridice, ci variază de la speță la speță. Echitatea este lă­sată la aprecierea judecătorului care se bazează în luarea deciziei sale și pe anumite însușiri inerente omului – compasiune, empatie, integritate.

Astfel, chiar dacă IA este un judecător imparțial, aceasta nu înseamnă că poate judeca o cauză în mod echitabil”[47].

c) În legătură cu respectarea unui termen rezonabil, aceasta este fundamentală „pentru desfășurarea procesului în conformitate cu exi­gențele impuse de Convenția Europeană a Drepturilor Omului. Întrucât oamenii sunt limitați din punct de vedere al capacității de muncă, timpul lor este de ase­menea limitat. Aceasta este principala cauză a supra‑aglomerării instanțelor și implicit a duratelor lungi ale proceselor. În schimb, IA nu este limitată din punct de vedere al timpului de lucru, putând să funcționeze aproape neîntrerupt. Am putea avea în acest fel un judecător care nu obosește, care are ședințe în fiecare zi și redactează hotărâri fără pauze. O astfel de instanță ar reduce în mod semnificativ durata procesului, respectând cu siguranță standardul termenului rezonabil”[48].

d) În fine, relativ la independența instanței de judecată, acest lucru „are în vedere inde­pendența individuală a oricărui judecător față de orice factor exterior. În aparență, IA este indepen­dentă față de oameni, aceasta fiind chiar una dintre caracteristicile de bază pentru ca o mașină să fie considerată IA. Cu toate acestea, trebuie să ținem cont de faptul că IA este creată de oameni, evoluând ulterior în mod independent printr‑un proces de învă­țare continuă. Programatorul IA, poate, teoretic, să intervină asupra modului în care acționează/gândește IA oricând.

Din moment ce unul sau mai mulți oameni au posibilitatea de a accesa și modifica codul ce stă la baza funcționării mașinii care este chiar judecătorul, în ce măsură mai există garanția independenței? Dacă pentru judecători independența este asigurată printr‑un cadru legal și prin valorile morale și etice, aceasta nu se poate aplica și în cazul roboților. În timp ce un judecător poate rezista influențelor externe, un calcu­lator/robot nu poate să acționeze altfel decât a fost programat.

Prin urmare, standardul independenței IA este diferit de cel al unui judecător. Pe când „judecătorii sunt independenți și se supun numai legii”, am putea spune că IA este independentă și se supune numai legii și programatorului”[49].

În legătură cu modul în care drepturile procedurale ar putea fi afectate de înlo­cuirea judecătorilor, procurorilor și avocaților cu IA (robojudecători, procurori-roboți ori super-avocați), aceasta ar putea avea atât urmări pozitive (spre exemplu, pentru înfăptuirea unei jurisprudențe unitare, „înlocuirea instanțelor clasice cu cele bazate pe IA ar putea reprezenta o soluție. Întrucât mașinile inteligente vor avea un algoritm asemănător sau identic, acestea vor raționa în același mod, inter­pretând la fel normele juridice și prin urmare pronun­țând hotărâri asemănătoare în spețe asemănătoare”), cât și negative [„este posibil ca încadrarea faptei (s.n.) să reprezinte o problemă pentru IA, întrucât mași­nile funcționează în mare parte pe baza anumitor tipare și algoritmi. Astfel, unele detalii importante din situația de fapt ar putea fi ignorate de judecătorul cu IA, din cauza faptului că algoritmul său nu încadrează acel detaliu în tiparul folosit pentru identificarea faptei penale.

Așadar, multitudinea ipotezelor ce pot intra sub incidența unui text din legea penală, precum și diver­sele detalii ce pot influența încadrarea juridică a unei fapte pot reprezenta o problemă pentru IA. Imposi­bilitatea de a încadra corect o faptă va conduce auto­mat și la o aplicare greșită a pedepselor (s.n.)]”[50].

În concluzie, având în vedere toate avantajele și dezavantajele folosirii IA în sistemul judiciar, în prezent, dar și în viitorul apropiat nu putem vorbi de înlocuirea judecătorului, procurorului ori a avocatului în pretoriu prin folosirea exclusivă a IA. Dacă ar fi acceptată o asemenea situație drepturile și libertățile fundamentale, precum și cele procesuale (de pildă, dreptul la un proces echitabil, dreptul la libertate și siguranță, dreptul la respectarea vieții private și de familie ș.a.) ar putea fi grav afectate din cauza unui cadru legislativ și instituțional deficitar, rămas mult în urma dezvoltării înaltelor tehnologii.

5.2. La implicarea IA în aplicarea legii, dar în strânsă legătură cu aceasta, se adaugă angajarea IA în procesul legislativ în contextul în care actualizarea legislației din domeniu nu reușește să facă față ritmului tot mai accelerat al dezvoltării tehnologiei. Un exemplu semnificativ în acest sens îl constituie cazul celor doi programatori care au creat viermele ILOVEYOU, provocând astfel pagube de miliarde de dolari, și care nu au putut fi trași la răspundere penală pentru că în Filipine nu exista la momentul comiterii faptei o reglementare în privința malware-lui[51]. Prin urmare, pentru a nu rămâne mult în urmă, este necesar ca legislația să fie actualizată cel puțin în ritmul dezvoltării tehnologice. Dar ce este de făcut pentru ca acest lucru să se și întâmple? Este nevoie într-un viitor încă greu de identificat de așa-ziși robolegiuitori pentru a eficientiza procesul legislativ, ca urmare a implicării tot mai semnificative a informaticienilor experți în învățământul juridic, precum și în derularea activităților legislative, respectiv executive ale puterii? Cum ar trebui modificate și completate actele normative în vigoare pentru a exprima cât se poate de corect progresul tehnologiei IA? Este ori nu oportună reglementarea de către factorii politici a IA și cum ar trebui procedat și în ce limite pentru ca aceasta să stimuleze cercetarea științifică în domeniu în scopul creșterii șanselor unui rezultat cât mai bun al implicării IA în procesul legislativ? Ar trebui acordate la un moment dat anumite drepturi mașinilor, ca, de pildă, cel de proprietate? Corelativ ar fi nevoie ca acestora să le incumbe și anumite obligații, iar în cazul încălcării acestora mașinile ar trebui să răspundă pentru faptele lor, inclusiv penal? Prin urmare, ar putea avea acestea capacitate juridică? Este ori nu potrivită conferirea unei personalități juridice IA?[52]. Ne dorim ca acestea să dispună de propria conștiință și cu ce preț pentru umanitate? Și, în special, ce răspunsuri-soluții vom avea pentru a rezolva controversele izvorâte din aceste întrebări? Mai precis, vrem algoritmi care să egaleze ori chiar să depășească inteligența umană și cu ce urmări pentru existența speciei noastre?

Așa fiind, în curând dreptul se va confrunta cu schimbări de substanță, prin metode și tehnici legislative noi, adaptate vremurilor în care trăim.

6. Utilizarea IA în domeniul militar și consecințele acesteia

6.1. Ceea ce ar trebui însă să îngrijoreze și totodată să responsabilizeze statele și societatea civilă în scopul asigurării viitorului umanității este implicarea înaltelor tehnologii și a inteligenței artificiale în războaiele prezente și viitoare. Într-un interviu recent acordat revistei săptămânale germane DER SPIEGEL, raportându-se la stabilitate și la viitorul relațiilor internaționale în era armelor nucleare, a digitalizării totale și a inteligenței artificiale, a imprevizibilității în caz de criză a algoritmilor și procedurilor tehnice care controlează aceste arme, Henry Kissinger menționa: ”Privind la istorie, aș descrie deja Primul Război Mondial ca un exemplu de tehnologie care a depășit capacitatea de a-l gestiona. Dar în perioada noastră, nu există nicio îndoială în acest sens. Avem arme nucleare de 80 de ani și s-au cheltuit trilioane pentru elaborarea lor. Din 1945, nimeni nu a îndrăznit să le folosească, chiar și împotriva țărilor non-nucleare. Astăzi, aceste arme nucleare sunt agravate de posibilitățile cibernetice, de inteligența artificială (…) a devenit extrem de dificil pentru liderii politici să-și controleze propria tehnologie, mai ales în caz de război. Este o obligație supremă acum să prevenim un război în care ar putea fi folosită o astfel de tehnologie înaltă. Și mai ales, un război între cele mai mari două țări high-tech, China și Statele Unite. Nu a existat niciodată o situație comparabilă, pentru că oricând ne-am fi putut imagina că învingătorul obține un anumit beneficiu. În acest tip de război, asta este imposibil”.[53]

Dar, ce părere ați avea despre așa-numita a treia revoluție în domeniul militar, aceea a armelor autonome, după praful de pușcă și armele nucleare, care ar deveni realitate foarte curând? Referitor la subiect ne spune mai multe Max Tegmark prin invocarea unei scrisori deschise-avertisment din partea cercetătorilor în domeniul inteligenței artificiale și roboticii. Iată un fragment din aceasta, tulburător prin mesaj: „S-au adus argumente pro și contra armelor autonome – de pildă, că înlocuirea soldaților umani cu mașini e bună prin reducerea numărului victimelor de partea celui care le deține, dar rea prin scăderea pragului în declanșarea bătăliilor. Întrebarea-cheie pentru omenire este acum dacă să înceapă o cursă globală a înarmărilor IA sau s-o împiedice. Dacă o mare putere militară pornește dezvoltarea armei IA, atunci o cursă a înarmărilor e practic inevitabilă, iar punctul final al acestei traiectorii tehnologice este evident: armele autonome vor deveni kalașnikovurile de mâine. Spre deosebire de armele nucleare, ele nu necesită materii prime scumpe sau greu de obținut, ca atare vor deveni omniprezente, iar pentru marile puteri militare producția lor în masă va fi ieftină. Va fi doar o chestiune de timp până să apară pe piața neagră și în mâinile teroriștilor, ale dictatorilor care vor să controleze mai bine masele, ale războinicilor dornici de purificare etnică etc.”[54]. Așadar, o nouă cursă a înarmărilor susținută de tehnologia IA[55] nu numai că nu ar fi de dorit, dar aceasta ar trebui evitată necondiționat. În același timp producerea de arme letale folosind IA (de pildă, dronele militare care azi sunt controlate de oameni de la distanță, mâine ar putea fi acționate doar de IA, folosind un algoritm pentru alegerea țintei) ar augmenta ostilitatea oamenilor față de IA, estompând posibilele ei beneficii sociale și economice viitoare.

6.2. În fine, un alt pericol pentru omenire rezultat din utilizarea IA în domeniul militar îl reprezintă războiul cibernetic, adică modalitatea prin care oponentul poate fi atacat fără a fi nevoie să fie construite arme în acest scop. Astfel, pe măsură ce „o societate e mai automatizată și cu cât devine mai puternic atacul IA, cu atât mai devastator poate fi războiul cibernetic. Dacă poți virusa și distruge automobilele care se conduc singure ale inamicului, avioanele lui autopilotate, reactoarele nucleare, roboții industriali, sistemele financiare și de comunicații, rețelele electrice, atunci îi poți efectiv distruge economia și paraliza apărarea. Dacă îi poți virusa și sistemele militare, cu atât mai bine”[56].

7. Etica IA. Norma morală și IA

Pe lângă nevoia urgentă a unor reglementări juridice care să vizeze folosirea înaltelor tehnologii pentru progresul umanității, „capacitatea tehnologiei de a îmbunătății existența umană depinde în mod decisiv de un proces paralel de evoluție morală (s.n.) a omului. Fără aceasta din urmă, puterea tehnicii va fi pur și simplu deturnată spre scopuri nefaste, iar omenirea o va duce mai rău decât înainte (…) Fantastica prosperitate economică datorată științei moderne are și o parte întunecată, pentru că a dus la deteriorarea mediului în multe părți ale globului, făcând să se pună problema unei catastrofe la scara întregii planete”[57]. În plus, paradoxal, a adâncit falia dintre bogații și săracii planetei și a făcut ca omenirea să se confrunte cu o criză existențială fără precedent constând în dificultăți grave economice, politice, sociale ș.a., având tendința de a se transforma într-o criză permanentă care este pe cale să devină „noua normalitate” în care oamenii vor fi obligați să trăiască ori mai grav să supraviețuiască. În acest mod, afirmația că progresul s-ar baza pe știință și tehnologie ar putea fi pusă sub semnul întrebării mai ales dacă luăm în considerare experiențele negative ale secolului al XX-lea și ale începutului actualului veac, precum și lipsa acută de soluții pentru a construi o lume mai prietenoasă cu viața în ansamblul ei.

Așa fiind, umanitatea este obligată să se asigure că viața în viitor, tot mai mult legată de IA, trebuie să fie edificată în baza unor principii etice asupra cărora omenirea ar trebui să cadă de acord. Ascultând și citind opiniile a numeroși gânditori privind acest subiect, Max Tegmark a concluzionat că „majoritatea ideilor lor pot fi distilate în patru principii: • Utilitarism: Experiențele pozitive ale conștiinței trebuie maximizate, iar suferința trebuie minimizată. • Diversitate: Un set divers de experiențe pozitive e preferabil repetițiilor numeroase ale aceleiași experiențe, chiar dacă aceasta din urmă a fost identificată drept cea mai bună dintre experiențele pozitive. • Autonomie: Entitățile/societățile conștiente trebuie să aibă libertatea de a-și urmări propriile obiective, cu condiția să nu intre în contradicție cu un principiu de ordin superior. • Moșteniere: Compatibilitate cu scenariile pe care astăzi (s.orig.) majoritatea oamenilor le-ar considera fericite, incompatibilitate cu scenariile pe care aproape toți oamenii le-ar considera astăzi (s. orig.) cumplite”[58].

Conferința Generală a Organizației Națiunilor Unite pentru Educație, Știință și Cultură (UNESCO), reunită în Paris la cea de-a 41-a sesiune, a adoptat, la 23 noiembrie 2021, Recomandarea privind etica inteligenței artificiale (Recomandarea). Astfel, în capitolul III al Recomandării au fost stabilite valorile și principiile care „ar trebui respectate de toţi actorii din ciclul de viaţă al sistemului IA, în primul rând și, acolo unde este necesar și adecvat, să fie promovate prin modificări aduse legislaţiei existente și prin elaborarea de noi legislaţii, reglementări și orientări de afaceri. Acestea trebuie să respecte dreptul internaţional, inclusiv Carta Naţiunilor Unite și obligaţiile statelor membre privind drepturile omului și ar trebui să fie în conformitate cu obiectivele de durabilitate socială, de politică, de mediu, educaţională, știinţifică și economică convenite la nivel internaţional, cum ar fi Obiectivele de dezvoltare durabilă ale Naţiunilor Unite. (ODD)”. Succint, valorile prevăzute în capitolul III.1 sunt: respectarea, protecţia și promovarea drepturilor omului și a libertăţilor fundamentale și a demnităţii umane; dezvoltarea mediului și ecosistemului; asigurarea diversităţii și incluziunii; asigurarea de societăți pașnice și juste, care se bazează pe un viitor interconectat în beneficiul tuturor, în concordanţă cu drepturile omului și cu libertăţile fundamentale. De asemenea, în capitolul III.2 sunt prevăzute 10 principii pentru realizarea IA etice: Proporţionalitate și interdicția de a face rău. Conform acestui principiu, utilizarea IA (metoda aleasă) trebuie să fie proporţională pentru a atinge un anumit scop legitim și nu trebuie să încalce valorile stipulate mai sus, în special să nu încalce și să nu abuzeze drepturile omului; Siguranţă și securitate. Inteligența artificială trebuie să nu provoace daune umane sau materiale și să nu prezinte vulnerabilităţi la atacuri cibernetice (riscuri de securitate); Corectitudine și nediscriminare. Beneficiile tehnologiilor IA trebuie să fie accesibile tuturor, ţinând cont de nevoile specifice ale diferitelor grupe de vârstă, sisteme culturale, diferite grupuri lingvistice, persoane cu dizabilităţi, fete și femei dezavantajate, marginalizate, și persoane vulnerabile sau persoane aflate în situaţii vulnerabile, iar aplicaţiile de IA trebuie să evite discriminarea și părtinirea; Durabilitate, adică necesitatea de a evalua în permanenţă impactul uman, social, cultural, economic și de mediu al tehnologiilor IA, care ar trebui realizată ținând cont de implicaţiile tehnologiilor IA pentru durabilitate ca un set de obiective în continuă evoluţie într-o serie de dimensiuni, cum sunt identificate în ODD ale Naţiunilor Unite; Dreptul la confidenţialitate și protecţia datelor. Pe de o parte, „confidențialitatea, un drept esenţial pentru protecţia demnităţii umane, a autonomiei umane și a determinării umane, trebuie respectată, protejată și promovată pe tot parcursul ciclului de viaţă al sistemelor IA”, pe de altă parte, este necesară dezvoltarea unor cadre adecvate pentru protecţia datelor personale; Supravegherea și determinarea umană, în sensul că un sistem de IA nu poate înlocui niciodată responsabilitatea umană finală; Transparenţă și explicabilitate. De cele mai multe ori transparența și explicabilitatea IA sunt precondiții esențiale pentru a asigura „respectarea, protecţia și promovarea drepturilor omului, a libertăţilor fundamentale și a principiilor etice. Transparenţa este necesară pentru ca regimurile de răspundere naţionale și internaţionale relevante să funcţioneze eficient. Lipsa transparenţei ar putea submina, de asemenea, posibilitatea de a contesta în mod eficient deciziile bazate pe rezultatele produse de sistemele de inteligenţă artificială și, prin urmare, ar putea încălca dreptul la un proces echitabil și la o cale de atac eficientă, limitând astfel domeniile în care aceste sisteme pot fi utilizate în mod legal”. În ceea ce privește explicabilitatea, aceasta se referă la capacitatea unui sistem de IA de a explica procesul de decizie; Responsabilitate și asumare.  Astfel, actorii IA și statele membre trebuie să asigure respectarea drepturilor omului și a libertăţilor fundamentale, protecţia mediului și trasabilitatea sistemelor de IA; Conștientizare și alfabetizare în IA rezidă, în principal, în creșterea gradului de conștientizare și de înţelegere a tehnologiilor de IA de către public, abordarea privind datele deschise și educaţia în IA accesibilă tuturor; Guvernare și colaborare adaptativă și cu multiple părți interesate, adică participare deschisă, reglementări guvernamentale și internaţionale atât pentru IA, cât și pentru utilizarea datelor[59].

La rândul ei „Strategia privind inteligenţa artificială” a Comisiei Europene vizează „dezvoltarea și utilizarea IA etice și sigure, promovând o abordare centrată pe om în context global”. În acest cadru, ”Grupul de experţi la nivel înalt pentru inteligenţa artificială (HLEG2) care sprijină implementarea Strategiei europene privind inteligenţa artificială a identificat patru principii etice care trebuie să stea la baza inteligenţei artificiale de încredere: respectul pentru autonomia umană; prevenirea vătămării; corectitudinea; și explicabilitatea, și șapte cerinţe cheie pentru realizarea IA de încredere: implicarea umană și supravegherea; robusteţe tehnică și siguranţă; confidenţialitatea și guvernarea datelor; transparenţă; diversitatea, nediscriminarea și corectitudinea; bunăstarea mediului și a societăţii; responsabilitate”[60]. Este necesar, neîndoielnic, ca aceste principii să fie implementate și aplicate în societatea umană. Pentru ca acest lucru să devină realitate „este nevoie de participarea tuturor actorilor implicaţi în întregul ciclu de viaţă al unui sistem de IA: cercetători și membri IA ai comunităţii academice, companii din sectorul privat, guverne, organizaţii interguvernamentale și societatea civilă”[61].

8. În loc de concluzii

Pentru ca progresul IA să răspundă nevoilor sociale și economice ale umanității, acest proces – cel mai impresionant din istoria cunoscută a speciei noastre – trebuie să se deruleze conform unor standarde morale și juridice care să asigure omului un viitor care să aibă un sens. Așa cum se concluzionează în Carta albă. Inteligența artificială – O abordare europeană axată pe excelență și încredere (Comisia Europeană, Bruxelles, 19 februarie 2020), „IA este o tehnologie strategică ce oferă numeroase beneficii cetățenilor, întreprinderilor și societății în ansamblu, cu condiția ca aceasta să fie centrată pe factorul uman, etică și durabilă și să respecte drepturile și valorile fundamentale”[62].

Apreciez că specia noastră a evoluat dincolo de pragul în care ar mai putea renunța la IA. În susținerea acestei afirmații este și răspunsul pe care expertul australian în tehnologie Toby Walsh l-a dat la o întrebare ce i-a fost adresată în cadrul unui interviu pentru publicația germană Der Spiegel despre efectele potențial devastatoare ale utilizării inteligenței artificiale pe câmpul de luptă: „Nu am putea pur și simplu să scoatem din priză un sistem AI care se comportă prost și gata?

În niciun caz! Nu putem doar să oprim computerele sistemului bancar global, atunci economia globală s-ar prăbuși. Nu putem opri nici calculatoarele de control al traficului aerian, atunci traficul s-ar prăbuși. De asemenea, nu putem opri computerele centralelor electrice, pentru că atunci am experimenta o întrerupere. Suntem deja total dependenți de computere astăzi. Această dependență doar crește cu AI. Nu putem scăpa de ea”[63].

Singurul lucru serios care ne rămâne de făcut este să armonizăm valorile acesteia cu valorile prezente și viitoare ale societății omenești.

Dezvoltarea IA este un proces în desfășurare care, pentru a fi în slujba oamenilor pe termen mediu și lung, ar trebui, din perspectiva dreptului, a eticii și a valorilor umane, să respecte câteva principii ce vizează mai multe componente. Astfel, cu privire la unele teme de cercetare: „§1. Obiectiv de cercetare: Obiectivul cercetării IA trebuie să fie acela de a crea o inteligență benefică, nu una nedirecționată[64]. Referitor la finanțarea cercetării IA: „§2. Investițiile în IA trebuie însoțite de finanțarea cercetării care să asigure utilizarea benefică a acesteia, incluzând probleme delicate (…), de științe juridice, etică (…), cum ar fi: … (c) Cum putem revizui sistemul nostru juridic pentru a fi mai corect și mai eficient, pentru a păstra ritmul cu IA și a gestiona riscurile asociate cu IA? (d) La ce set de valori trebuie aliniată IA și ce statut juridic și etic ar trebui să aibă?[65]. În ceea ce privește etica și valorile: „§6. Siguranță: Sistemele IA trebuie să fie sigure și protejate în decursul întregului timp de viață al funcționării lor, să poată fi verificate acolo unde sunt aplicabile și unde sunt folosite. (…) §8. Transparență juridică: Orice implicare a unui sistem autonom în hotărâri judecătorești trebuie să ofere o explicație satisfăcătoare verificabilă de către o autoritate umană competentă. §9. Responsabilitate: Proiectanții și constructorii sistemelor IA avansate sunt parte interesată în ce privește implicațiile morale ale folosirii, folosirii greșite și acțiunilor acestora, având responsabilitatea și posibilitatea de a modifica acele implicații (pentru a fi conforme cu norma morală, n.n.). §10. Alinierea valorilor: Sistemele IA cu un grad înalt de autonomie trebuie proiectate așa încât să poată fi asigurată alinierea obiectivelor și comportamentelor lor cu valorile umane pe tot parcursul funcționării acestora”. §11. Valorile umane: Sistemele IA trebuie proiectate și acționate așa încât să fie compatibile cu idealurile umane legate de demnitate, drepturi, libertăți și diversitate culturală () §13. Libertate și confidențialitate: Aplicarea IA la datele personale nu trebuie să știrbească libertatea reală sau percepută a oamenilor (…) §16. Controlul uman: Oamenii trebuie să aleagă cum și dacă își deleagă deciziile sistemelor IA, pentru îndeplinirea propriilor lor obiective. §17. Anti-subminare: Puterea conferită prin controlul unor sisteme IA avansate trebuie să respecte și să amelioreze, nu să submineze, procesele sociale și civice de care depinde sănătatea societății (…) Probleme pe termen lung (…) §23. Binele comun: Superinteligența trebuie dezvoltată pentru a se afla numai în slujba unor idealuri etice larg împărtășite și în beneficiul întregii omeniri, nu doar al unui stat sau al unei organizații”[66].

Pe lângă acestea omul trebuie să câștige, pe de o parte, lupta cu orgoliul, de cele mai multe ori exacerbat, că numai el contează în acest univers deoarece este cel mai deștept; pe de altă parte, trebuie să-și învingă două tare foarte grave care l-au însoțit de-a lungul întregii sale istorii, și anume, violența și dorința exacerbată de câștig, de avere, care în condițiile progresului IA devin exponențial mai periculoase. În caz contrar, pierderea acestei bătălii poate duce la extincția vieții conștiente – cea care prin experiențe subiective dă un sens lumii în care trăim. Așa fiind, este nevoie de un nou cod moral bazat pe mai multă modestie umană, precum și de norme juridice actualizate pentru a face față problemelor juridice complexe și complicate puse de IA, în contextul în care aceasta din urmă, la un moment dat, va putea depăși inteligența umană.

„Noi, oamenii, ne-am construit identitatea pornind de la faptul că suntem Homo sapiens, cele mai deștepte entități de prin părțile noastre. Cum suntem pe cale de a fi întrecuți de mașini și mai deștepte, propun să ne redefinim ca Homo sentiens”, ne îndeamnă Max Tegmark[67].

Mai mult decât atât o nouă spiritualitate care implică, printre altele, o schimbare interioară esențială a omenirii în proporții mari, precum și atingerea unui grad superior de maturitate emoțională și de conștiință spirituală[68], de care nu sunt străine fizica și mecanica cuantică, pare să câștige tot mai mult teren în economia dezvoltării societății omenești postindustriale prin transformarea personalității umane înseși. Această nouă paradigmă sperăm să-i facă pe oameni – chiar și pe cei din sistemul corporatist (deși la stadiul actual șansele sunt reduse) – să conștientizeze că a avea, adică a face profit cu orice preț, este mai puțin important decât a fi, menit să asigure omului acel echilibru între spirit, minte și trup. Sau, în alt mod spus, să înfrângem dorința de a domina, de a fi recunoscuți ca superiori ai altor oameni, în favoarea respectului pentru sine, care nu este nici mai mult, nici mai puțin decât respectul pe care îl datorăm celorlalți semeni ai noștri.

Și cred că ar mai fi ceva: „Înțelepciunea este finalitatea pozitivă dată inteligenței, iar asta încă ne lipsește. Aceasta este Noua Conștiință, Noua Spiritualitate (s. orig.) pe care o așteaptă mileniul trei”[69].

Așadar, un nou mod de a trăi experiența umană aici pe Terra și dincolo de granițele acesteia, inclusiv ori mai ales prin folosirea IA cu luciditate, prudență și programare riguroasă în beneficiul speciei noastre, – mai înainte de orice prin creșterea nivelului prezent de inteligență și de maturitate afectivă –, este unica speranță pentru ca omul să rămână stăpân pe destinul său, adică să aibă un viitor cu SENS!


[1] Max Tegmark, Viața 3.0. Omul în epoca inteligenței artificiale, Editura Humanitas, București, 2019, p. 59.
[2] Ibid., p. 49.
[3] Ibid., p. 278.
[4] Andreea Vlad, Exclusiv. Se pregătește marea resetare! Fiara apocaliptică devine realitate. „Poți să pui o momâie ministru”, disponibil pe evz.ro, accesat la 12 noiembrie 2022.
[5] Andreea Ciurea, Era digitală și justiția (III). Etică, Drept și Responsabilitate – un triptic indispensabil în reglementarea IA, în revista „Universul Juridic” nr. 10/2022.
[6] Ibid.
[7] Max Tegmark, op. cit., p. 107.
[8] Ibid.
[9] Ibid., p. 151.
[10] Ibid., p. 107.
[11] Ibid., p. 108.
[12] Ibid., p. 117.
[13] Ibid., p. 49.
[14] Dumitru Constantin-Dulcan, Inteligența materiei, Ediție aniversară, Ediția a IV-a, revizuită și adăugită, Ed. Școala Ardeleană, Cluj-Napoca, 2021, p. 195-196.
[15] Georgian-Marcel Husti, Poate avea inteligența artificială capacitate penală?, în „Pro Lege” nr. 2/2022, p. 41.
[16] Max Tegmark, op. cit., p. 49.
[17] Ibid.
[18] Georgian-Marcel Husti, op. cit., p. 41.
[19] Agenția pentru Drepturi Fundamentale a Uniunii Europene, Raportul Înțelegerea viitorului. Inteligența artificială și drepturile fundamentale (rezumat), Luxemburg, Oficiul pentru Publicații al UE, 2021, disponibil aici, accesat la 2 ianuarie 2023.
[20] Ioana Ciutacu, Efectele implementării inteligenței artificiale în justiție asupra drepturilor fundamentale și asupra drepturilor procedurale, disponibil pe universuljuridic.ro, accesat la 26 decembrie 2022.
[21]Georgian-Marcel Husti, op. cit., p. 41.
[22] Pentru secțiunile 2-6 a se vedea și Ov. Predescu, Criză și democrație. Reziliența dreptului, a statului de drept și a drepturilor omului în contextul lumii contemporane, Editura Școala Ardeleană, Cluj-Napoca, 2022, p. 123-134.
[23] Andrei Marga, Neurodrepturile și alte drepturi, disponibil pe cotidianul.ro, accesat la 27 iunie 2022.
[24] George Titus Albulescu, Tehnologie uluitoare dezvoltată în China: Sistemul totalitar poate citi mințile oamenilor, disponibil pe ziare.com, accesat la 6 iulie 2022.
[25] Ovidiu Predescu, Convenția europeană a drepturilor omului și dreptul penal român, Ed. Lumina Lex, București, 2006, p. 180.
[26] George Orwell, 1984, Ed. Cartex 2000, București, 2022, p. 22-23, 281.
[27] Max Tegmark, op. cit., p. 316.
[28] Dumitru Constantin-Dulcan, Cuvinte alese, Editura Școala Ardeleană, Cluj-Napoca, 2022, p. 23, 25, 26, 27.
[29] Stanislav Grof, Psihologia Viitorului. Lecții din cercetarea modernă asupra conștiinței, Elena Francisc Publishing, 2007.
[30] John Hands, Cosmo Sapiens. Evoluția omului de la originile universului, Ed. Humanitas, București, 2019, p. 504.
[31] Sebastian Jucan, O cercetătoare se teme că a deschis „cutia Pandorei” în inteligența artificială (AI), disponibil pe science.hotnews.ro, accesat la 12 iulie 2022.
[32] Irina Chirtoc, Moment istoric. Un robot umanoid care poate crea artă a ținut un discurs în Parlamentul britanic, disponibil pe ziare.com, accesat la 25 decembrie 2022.
[33] Ibid.
[34] Victor Șerban, Inginerul care a spus că sistemul de inteligență artificială Google gândește singur a fost dat afară de companie, disponibil pe ziare.com, accesat la 25 decembrie 2022.
[35] Veronica Andrei, Partidul politic condus în totalitate de un software a fost înființat în Danemarca. Cum funcționează entitatea care vrea să participe la alegeri, disponibil pe ziare.com, accesat la 9 august 2022.
[36] Max Tegmark, op. cit., p. 120.
[37] Ibid., p. 122.
[38] Ibid., p. 121.
[39] Ibid., p. 122.
[40] Angelica-Georgiana Alecu, Inteligența artificială în justiție. Unde suntem și spre ce ne îndreptăm?, disponibil pe hotnews.ro, accesat la 8 septembrie 2022.
[41] Ibid.
[42] Veronica Dobozi, Carta etică europeană cu privire la utilizarea inteligenței artificiale în sistemul judiciar și în legătură cu acesta, disponibil pe hotnews.ro, accesat la 15 decembrie 2022.
[43] A se vedea pe larg agerpres.ro, accesat la 13 noiembrie 2022.
[44] Constantin Bîrsan, Convenția europeană a drepturilor omului. Comentariu pe articole, vol. I, Drepturi și libertăți, Ed. All Beck, București, 2005, p. 394.
[45] Mihai Udroiu, Ovidiu Predescu, Protecția europeană a drepturilor omului și procesul penal român, Ed. C.H. Beck, București, 2008, p.536, inclusiv nota de subsol nr. 2.
[46] Ioana Ciutacu, cit. supra.
[47] Ibid.
[48] Ibid.
[49] Ibid.
[50] Ibid. În acest articol se mai fac referiri și la alte aspecte referitoare la efectele implementării IA în justiție asupra drepturilor procedurale, cum ar fi: încadrarea juridică, atacurile cibernetice, revizuirea contractelor, cercetarea și, posibil, anticiparea rezultatelor unor litigii etc.
[51] Max Tegmark, op. cit., p. 122.
[52] În legătură cu subiectul respectiv a se vedea pe larg Georgian-Marcel Husti, op. cit., p. 37- 68. În ceea ce privește o posibilă reglementare juridică, autorul relevă că „în doctrină s-a evidențiat că, cel mai probabil, răspunderea roboților va cunoaște 3 etape: i. pe termen scurt, vor fi extinse sistemele actuale, cu intervenții din partea legiuitorului și pe cale jurisprudențială, pentru a putea judeca cauzele în care se pune problema răspunderii roboților, ii. pe termen mediu, reglementarea unor modele de răspundere obiectivă [în sens de strict liability (s. orig.), adică, în esență, să fie răsturnată prezumția de nevinovăție] și recunoașterea unei capacități juridice limitate și iii. o modificare fundamentală a dreptului, constând în recunoașterea și atribuirea roboților a unei personalități juridice, de entități electronice. Analizând trendurile în materie se poate afirma că la acest moment ne aflăm în etapa i, dar tindem spre etapa ii. Sistemele moderne de răspundere penală au din ce în ce mai mari dificultăți în a face față noilor provocări conceptuale puse de roboți și de IA. La ora actuală roboții, din punct de vedere penal, sunt asimilați unor simple unelte. Dar această comparație devine din ce în ce mai problematică atât în teorie, cât și în practică. La nivelul literaturii de specialitate în materie, există numeroase articole care subliniază că sunt mai mult decât niște simple unelte” (Georgian-Marcel Husti, op. cit., p. 41, 42, inclusiv notele de subsol 12-16).
[53] Henry Kissinger, radiografie a războiului din Europa. “Putin nu este la fel de impulsiv ca Hrușciov”, disponibil pe ziare.com, accesat la 16 iulie 2022.
[54] Max Tegmark, op. cit., p. 130.
[55] Într-un interviu pentru publicația germană Der Spiegel, expertul australian în tehnologie Toby Walsh discutând despre efectele potențial devastatoare ale utilizării IA pe câmpul de luptă, printre altele, a relevat: „… o cursă globală a înarmărilor AI a fost în desfășurare de mult timp, despre care publicul nu a fost în mare parte conștient până acum. Armata SUA dezvoltă un tanc robot numit Atlas. Marina SUA lucrează la o navă de război robotizată complet automatizată numită Sea Hunter, care a încheiat deja în mod autonom o călătorie din Hawaii până pe coasta Californiei. China dezvoltă, de asemenea, rachete controlate de AI. Și Rusia vrea să dezvolte un submarin autonom, fără pilot, numit Poseidon, care poate fi echipat chiar cu arme nucleare. E un coșmar. Vă puteți gândi la ceva mai terifiant decât un submarin în care, în loc de un căpitan, un program de calculator decide dacă începe un război nuclear?” Cu aceeași ocazie, Toby Walsh a fost rugat să exprime un punct de vedere referitor la scoaterea în afara legii a armelor controlate de IA, spre exemplu, printr-o contrapartidă la Tratatul de neproliferare nucleară. Iată răspunsul acestuia: „ (…) scoaterea în afara legii poate să nu funcționeze întotdeauna perfect, dar poate preveni ce e mai rău. Există destul de multe exemple de arme care au fost folosite inițial, dar ulterior au fost scoase în afara legii. Gândiți-vă la utilizarea pe scară largă a gazelor otrăvitoare în Primul Război Mondial. Sau gândiți-vă la laserele orbitoare, care îi pot orbi pe soldați. Au fost scoase în afara legii printr-un protocol al Națiunilor Unite în 1998 și nu au mai apărut aproape niciodată pe câmpurile de luptă de atunci, deși tehnologia laserului civil este, după cum știm, utilizată pe scară largă. Pentru minele antipersonal, interdicția nu funcționează la fel de bine, dar cel puțin 40 de milioane dintre ele au fost distruse ca urmare a protocoalelor de scoatere în afara legii, salvând viețile multor copii. Este o poveste similară cu munițiile cu dispersie: aproximativ 99% din stoc a fost distrus, chiar dacă au fost folosite din nou în Siria. Ne putem asigura că armele autonome devin inacceptabile prin stigmatizarea lor” (Victor Șerban, Armele de război care pot fi chiar mai periculoase decât bomba nucleară. “Vă puteți gândi la ceva mai terifiant?”, disponibil pe ziare.com, accesat la 25 decembrie 2022).
[56] Ibid., p. 134.
[57] Francis Fukuyama, Sfârșitul istoriei și ultimul om, Ed. Paideia, București, 1997, p. 27.
[58] Max Tegmark, op. cit., p. 302.
[59] A se vedea Recomandarea privind etica inteligenței artificiale din 23 noiembrie 2021, disponibilă aici, accesat la 30 decembrie 2022.
[60] Adina Magda Florea, Principii de Etică în Inteligenţa Artificială, în „Etica inteligenței artificiale. Cât de inteligent putem utiliza inteligența artificială?”, Comisia Națională a României pentru UNESCO, disponibilă aici, accesat la 30 decembrie 2022
[61] Ibid.
[62] Disponibilă aici, accesat la 2 ianuarie 2023.
[63] Victor Șerban, cit. supra.
[64] Max Tegmark, op. cit., p. 368.
[65] Ibid.
[66] Ibid., p. 368-370.
[67] Ibid., p. 351.
[68] În legătură cu acest subiect a se vedea pe larg Stanislav Grof, op. cit..
[69] Dumitru Constantin-Dulcan, Cuvinte alese, cit. supra., p. 20.


Prof. univ. dr. Ovidiu Predescu