Nevoia unui acord global privind IA și posibile elemente constitutive

Dacă în privința inițiativelor lansate cu privire la posibile reglementări ale problematicii inteligenței artificiale (IA) asistăm la o veritabilă „cursă mondială”, referitor la realizările concrete în materie acestea lipsesc aproape cu desăvârșire. Potrivit datelor unei recente evaluări, deocamdată nicio țară membră a Organizației pentru Cooperare și Dezvoltare Economică nu a aprobat o reglementare specifică în domeniu. Primele semne concrete se înregistrează mai degrabă la nivelul marilor blocuri economice și/sau politico-strategice, demersurile naționale rămânând în expectativă, în așteptarea tonului general, cu precădere al celui venit de la marea grupare de apartenență și/sau de orientare generală. Desigur, din această perspectivă cele mai mari avansuri în materie se înregistrează în cadrul UE unde, la 14 iunie, Parlamentul European a aprobat o primă formă a unui regulament menit să devină „legea europeană pentru IA”. Într-un context continental (regional) mai larg Consiliul Europei a hotărât să procedeze la elaborarea și adoptarea propriului instrument juridic spre a reglementa inteligența artificială, fără posibilitatea însă a unei complementarități și identități în ceea ce privește obiectivul concret vizat, având în vedere specificitatea lor, în sensul că dacă organizația paneuropeană va viza perspectiva raportării la problematica drepturilor și libertăților fundamentale, structura de înțelegere va urmări să reglementeze IA prin „intermediul normativului relativ la piața interioară și la securitatea produselor”.

Totodată, devine tot mai evident că, pe lângă o reglementare generală, se impune a fi elaborate și altele speciale consacrate diferitelor utilizări particulare ale noilor tehnologii. De altfel, chiar experiența din ultima perioadă a UE în domeniul digital, de pildă, în care a dezvoltat deja circa 30 proiecte de reglementări speciale-specifice demonstrează acest lucru. Un alt aspect important se referă la mobilizarea legislației preexistente, aferentă ramurilor tradiționale de drept, dar cu potențiale rezonanțe și în noile nișe de progres reglementar și prefigurarea acestora. Așa, de exemplu, câmpuri preexistente precum protecția împotriva discriminării, drepturile fundamentale, proprietatea intelectuală, dreptul concurenței ori dreptul administrativ vor cunoaște nuanțări și pigmentări substanțiale, inovante în mare parte în contact cu provocările inteligenței artificiale. Este apoi de încurajat un echilibru între reglementarea voluntară (de soft law) și cea juridică (de hard law), deopotrivă sub raport de complementaritate/simultaneitate și cel al succesiunii în timp. Ritmul alert de desfășurare al progresului tehnologic și urgența normativizării pledează, ținând seama și de dificultățile inerente demersului aferent, pentru impunerea declanșării urgente a „normalizării”, urmată cât mai rapid de reglementarea obligatorie. Prima ar presupune concertarea voluntară a actorilor majori ai sectorului în descriere, într-un spirit de consens a bunelor practici, metodelor și standardelor urmate și urmărite care ar favoriza inserția inovațiilor pe piață, creând încredere și liniștind consumatorul. Ele ar trebui rapid însoțite de exigențele interesului public general exprimat în textul legal, de autoritate, însă elaborat în transparență și pe bază de dialog constructiv. Nu în ultimul rând, este de domeniul evidenței faptul că este nevoie de o reglementare cât mai globală, cel puțin la nivel regional, altfel discrepanțele de reglementare și mozaicul de norme conducând la blocaje și la prejudicii majore nu numai în promovarea inovației tehnologice, ci și a utilizărilor sale concrete.

În numele unor atari constatări se impun percepute și văzute și noile dezvoltări înregistrate pe calea reglementării ori recentele poziționări și propuneri formulate în același context.

1. O reglementare întemeiată pe un risc existențial. În urmă cu mai bine de o săptămână, 300 de experți, printre care Sam Altman și Demis Hassabis, unul dintre liderii de la Google DeepMind, au publicat o scrisoare deschisă, condensată în 29 de cuvinte (în versiunea în limba engleză), cu următorul mesaj: „Limitarea riscului de extincție legat de inteligența artificială ar trebui să fie o prioritate mondială, alături de alte riscuri la scara societății, printre care pandemiile și războiul nuclear”. La prima vedere o formulare șoc menită, deopotrivă, a polariza atenția și a marca spiritele. O idee deja exprimată la nivel de principiu și impusă public în siajul conceptului de „riscuri existențiale” (dezvoltat în 2014 de către N. Bostrom), atașată direct și semnificativ de „invenția cea mai importantă făcută vreodată de omenire” și totul în perspectiva constatării că, pe cât de mari se prefigurează beneficiile sale, pe tot atât sunt și potențialele amenințări. Iar de aici și într-un atare context, imperativul de a fi dezvoltată într-o ecuație care să o facă „sigură și benefică pentru toți”. Și, totodată, se enunță baza ideatică a oricărei reglementări în materie.

Desigur, salturile realizate de IA pot arunca în aer unele fundamente ale societăților liberale, începând cu raportarea la adevăr și la autentic. Totuși, nu putem ajunge la o eficientă protejare a soclului său de valori propagând teama și neîncrederea. Unii consideră că cel mai mare pericol ar fi în această privință să creăm și cultivăm o nouă formă de ludism, adecvată problemei, acea mișcare socială engleză din secolul al XIX-lea compusă din țesători, artizani și alți lucrători din industria textilă care distrugeau primele mașini de țesut, crezând că prin aceasta împiedică industrializarea domeniului și își păstrează locurile de muncă și poziția socială în Midlands. Pornind de la o atare comparație, Jean-François Sebastian, președintele unei societăți franceze specializate în analiza datelor, ne propune o interesantă modalitate de instituire și gestionare a unei reglementări mondiale a problematicii inteligenței artificiale (într-un punct de vedere publicat sub titlul Une réglementation mondiale de l’intelligence artificielle, coécrite par les acteurs de la technologie et les États, doit voir le jour, în „Le Monde” din 24 iunie a.c.). În loc să pună paie pe foc prin declarațiile lor publice alarmiste, actorii lumii tech ar trebui mai degrabă să-și concretizeze atenția și eforturile pe trei fronturi, și anume a acompania întreprinderile, a liniști cetățenii și a susține autoritățile publice în demersurile lor de a găsi și promova soluții pertinente provocărilor IA, evident pe calea reglementării.

Zgomotul provocat și întreținut în jurul inteligenței generative și mai ales al celei generale estompează realitatea că, în planul preocupărilor concrete dominante rămân aspectele legate de implementarea și generalizarea mizelor inteligenței artificiale tradiționale. Un studiu publicat în luna mai a.c. ne arată, de exemplu și printre altele, că numai 41% din întreprinderile franceze mici și mijlocii recurg la IA. O cifră uimitor de redusă pe care patronii respectivi o explică prin lipsa de competențe interne, absența consumului și riscurile relative la confidențialitatea datelor. Două obstacole din trei sunt legate de tema încrederii. Una pe care abordările alarmiste din ultima perioadă o fac să nu se restabilească curând. Specialiștii consideră că nu se va ajunge la o acceptabilitate social reală și majoritară a IA generative, fără adoptarea/implementarea generalizată a inteligenței artificiale. Percepțiile cetățenilor evoluează în plină distopie, între teama imediată și concretă a dispariției locurilor de muncă și angoasa existențială a distrugerii condițiilor de viață pe planetă. Toate acestea ar releva imperativul protecției, ceea ce nu numai că evocă, dar chiar și implică o reglementare amplă și adecvată, în orice caz una „coscrisă de actorii tehnologiei și de state”. Dar natura implicațiilor și complicațiilor generate de IA impun a se merge și mai departe. Și pentru aceasta, autorul articolului mai sus citat procedează prin analogie cu mecanismul onusian de reglementare privind combaterea schimbării climatice. Astfel, scrie el, pentru a releva provocarea dereglării climei comunitatea internațională a creat Conferința Părților sub egida ONU în cadrul căreia, la fiecare 2 ani, și în ultimul timp chiar în fiecare an, reprezentanți ai statelor, uneori chiar lideri mondiali, observatori din partea lumii științifice, ai marilor întreprinderi sau ai societății civile radiografiază starea de lucruri, fixează obiective și stabilesc angajamente individuale și/sau colective. O cale similară ar trebui să fie urmată și în privința inteligenței artificiale. Problematica sa ar putea să facă obiectul unor dezbateri/discuții, să devină o conversație mondială organizată cu cei mai buni experți, statele și societatea civilă. Sub patronajul unui organism supranațional, ar urma să fie astfel expuse și analizate marile mize ale IA, precum și toate externalitățile sale pozitive și negative în mod transparent și exigent. S-ar impune, de asemenea, ca măsuri și angajamente obligatorii să fie asumate în fața opiniei publice, iar o atare perspectivă s-ar înscrie spiritului inițiativei premierului britanic Rishi Sunak de a organiza, în septembrie a.c., primul summit mondial consacrat inteligenței artificiale spre a se ajunge la o abordare globală și a limita riscurile.

2. Perspective unional-europene ale reglementării IA. Ultimele dezbateri de la mijlocul lunii iunie din cadrul unional-european adaugă noi elemente ale preconizatului regim juridic aferent IA. Se pornește de la constatarea că dacă legislația privind inteligența artificială ar trebui să fie aplicată acum, deci în absența unor reglementări speciale ale domeniului, ChatGPT ar trebui să se conformeze la trei niveluri de reguli: a) respectarea intereselor celor aflați în avalul lanțului în scopul de a se asigura că nu se încalcă domeniile de înalte riscuri enumerate în legislație; b) trebuie să se stabilească transparența pentru datele utilizate pentru a forma ChatGPT, detailându-se cum funcționează aceasta; c) s-ar impune ca creatorii de ChatGPT să probeze, în timpul conceperii algoritmurilor lor, că au respectat legalitatea conținuturilor pe care le utilizează. Chestiunea drepturilor de autor trebuie tratată și prezentată ca atare.

Însă, indiferent de conținutul concret al actului legislativ în curs de elaborare și dezvoltare, acesta nu va intra în vigoare și va deveni operațional la nivel comunitar și în statele membre mai devreme de circa doi ani. Până atunci însă se ridică problema cum se vor acoperi lacunele juridice în condițiile în care nevoile practice nu mai au răbdare și solicită unele soluții, cel puțin punctuale. Comisia Europeană încearcă să incite platformele digitale să angajeze, în mod voluntar, o distincție între conținuturile generate de IA. Intrarea în vigoare a textului DSA (Digital Service Act) la sfârșitul lunii august 2023 ar trebui să ofere, deopotrivă, câteva puncte de sprijin în combaterea dezinformării on-line. Dar, desigur, ChatGPT ridică probleme mai specifice care, spre rezolvare corespunzătoare, vor trebui să aștepte intrarea în vigoare a legii europene în materie. Una care, la rândul său, va prezenta un mare caracter de generalitate și va necesita dezvoltări rapide pentru utilizările specifice, în situația în care nivelul unional-european rămâne cel mai potrivit ca abordare reglementară a acestei problematici.

Un exemplu al necesarelor reacții urgente și atipice în așteptarea ansamblului reglementar cuvenit se înregistrează în Franța unde autoritățile nu au mai putut să întârzie și în amonte de Jocurile Olimpice din 2024 au decis să procedeze, grație IA, la recunoașterea biometrică la distanță în timp real în spațiul public pentru a preveni eventualele atentate în timpul evenimentelor sportive. Controlul de constituționalitate al reglementării i-a fost favorabil, invocându-se cerințe ținând de rațiuni vizând securitatea națională, apărare și forțe armate. Parlamentul European, în contextul invocat mai sus, s-a dovedit mai prudent înlăturând, la acest stadiu, orice folosință a recunoașterii biometrice în timp real la distanță, marcând astfel o netă ruptură cu modelul chinez de control al societății. De asemenea, majoritatea europarlamentară a refuzat amendamentele creștin-democraților din PPE care doreau introducerea a trei excepții: în caz de răpire de copii, acte de terorism și pentru interpelarea autorului unei infracțiuni pedepsibile cu cel puțin 3 ani de închisoare. Parlamentul a preferat deci o înlăturare clară și netă a acestei practici ca o poziție de plecare în negocierile deschise cu Consiliul UE pe această temă majoră. Legislația unional-europeană în curs de adoptare repertoriază domenii de înalt risc în care IA va fi proscrisă, sub motivul interzicerii notării indivizilor în funcție de comportamentul lor social ori de caracteristici personale (orientări politice, origine etnică, convingeri religioase etc.). Tot așa, inteligența artificială nu va putea înregistra imagini faciale captate pe internet ori extrageri de secvențe din video-supraveghere în vederea creării de baze de date de recunoaștere facială, ceea ce ar constitui o violare a drepturilor umane la viață privată. În caz de infracțiune, regulatorii ar putea cere retragerea IA neconformă sub sancțiunea aplicării unei amenzi substanțiale (de până la 6% din cifra de afaceri). Totodată, PE a lărgit spectrul interdicțiilor, IA neputând să fie utilizată ca „serviciu de poliție predictiv”, fondându-se pe profilarea, localizarea ori comportamentul infracțional trecut. Sistemele de recunoaștere a emoțiilor nu vor putea fi folosite de poliție, nici împotriva migranților, la locul de muncă ori în stabilimentele școlare. Așadar, o evidentă prudență, cel puțin deocamdată, în privința recurgerii la mijloacele tehnice oferite de IA în cadrul judiciar din motive ținând esențialmente de respectarea exigențelor drepturilor și libertăților umane fundamentale.

3. O soluție „reglementară” posibilă. Preluând ideea unui mecanism global de elaborare și actualizare permanentă, impusă de dinamica domeniului a reglementărilor privind IA după modelul dispozitivului juridico-instituțional internațional ce funcționează în privința combaterii schimbării climatice, credem că se poate merge și mai departe în extrapolarea situațiilor. Este vorba de inițierea elaborării unui regim internațional complex, mixt (format din reglementări juridice și norme voluntare privind inteligența artificială), stabilit împreună de reprezentanți ai statelor, marilor întreprinderi de profil și societății civile, însoțit de un mecanism de guvernanță menit să-i asigure, deopotrivă, consensualitatea, transparența, actualizarea și eficiența. Elementul său fondator l-ar putea constitui încheierea unui acord-cadru, cât mai universal, deopotrivă ca problematică și reprezentativitate, bazat pe angajamente voluntare, menit să consacre principiile și obiectivele reglementării care să fie completat cu protocoale adiționale pe sectoare majore de utilizări și să instituie o guvernanță corespunzătoare, cu funcție de control, transparență și urmărire permanentă. O conferință a părților sau o altă structură de gen, cu reuniuni periodice, prevăzută în actul fondator, ar asigura permanența și actualizarea reglementărilor, ar soluționa eventualele divergențe și ar asimila noile probleme. Desigur, se pot avea în vedere și alte coordonate ale demersului.

*

*        *

Iată cum acuta și spectaculoasa problematică a inteligenței artificiale generează și interesante provocări de ordin juridic, începând cu semnificațiile posibile ale dreptului pozitiv existent, continuând cu aspecte legate de adaptarea sa la mizele noilor tehnologii și încheind cu nevoia și dimensiunile revoluției juridice angajate în acest context. Într-adevăr, dreptul inteligenței artificiale devine o dimensiune inseparabilă a transformării digitale a societății, cu implicații majore asupra naturii sale și a evoluțiilor astfel angajate. După cum atari evoluții generează o veritabilă regândire a juridicului și dezvoltarea dreptului pozitiv. Prin urmare, suntem în fața unei noi etape de afirmare a civilizației juridice ori chiar de afirmare a unui nou (fel) de drept? O întrebare care rămâne deschisă și o dilemă care își așteaptă lămurirea.

P.S.: Până atunci însă, lansăm, în același spirit, o simplă și minusculă poate altă provocare: trebuie să considerăm orice sistem algoritmic, precum o IA, în scopul de a ne proteja de implicații posibile, în măsura în care viitorul dispozitiv prevede un examen de conformitate prealabilă lansării sale pe piață? Ori, dimpotrivă, s-ar impune să restrângem noțiunea de inteligență artificială la tehnologiile recente (precum învățarea automată) și să considerăm victimele potențiale ale acestor sisteme ca un tribut acceptabil? Termenul de inteligență artificială e polisemic și s-a propagat începând cu anii 1950 în vocabularul curent în favoarea unui imens marketing, angajând cu sine o sumă de reprezentări, uneori total fantasmagorice și generând discuții interminabile, în diverse forumuri, internaționale, regionale ori naționale, pe o atare temă. Este vorba de aspecte existențiale, vizând, spre exemplu, profetizarea unei dominații a umanului de către mașină, și mai ales de nevoia unei încadrări cât mai bune a efectelor aplicațiilor informatice precise, concrete și actuale. Pentru că, în cele din urmă, expresia „IA” devine contraproductivă din punct de vedere juridic și chiar, în unele privințe periculoasă. Este, în definitiv, o problemă de securitate juridică evidentă, care privește interpretarea și mai ales aplicarea, inclusiv de către tribunale, a legii IA prin cristalizarea unui limbaj cât mai clar și precis lipsit de eufemismele spectacularului și ancorat realităților imediate. Poate reflectăm mai mult asupra lucrurilor de început!

Prof. univ. dr. Mircea Duțu
Directorul Institutului de Cercetări Juridice „Acad. Andrei Rădulescu” al Academiei Române