Între frica de inteligența artificială și nevoia urgentă de reglementare a acesteia


Ovidiu PredescuAvând în vedere faptul că dezvoltarea inteligenței artificiale (IA) prezintă riscuri importante pentru umanitate prin perturbări economice, sociale şi politice, precum şi nevoia urgentă de reglementare a acesteia, mai mulţi experţi în domeniul IA cărora li s‑au alăturat personalităţi ca, de pildă, Elon Musk, Steve Wozniak (cofondatorul Apple), scriitorul Yuval Harari, Emad Mostaque (directorul general al Stability AI) au semnat o scrisoare deschisă prin care solicită „o pauză de şase luni în dezvoltarea sistemelor avansate de inteligenţă artificială (mai puternice decât GPT‑4, n.n.)”, pauză ce ar trebui să fie publică şi verificabilă şi să‑i includă pe toţi actorii cheie, iar dacă nu se va reuşi rapid acest lucru atunci guvernele ar trebui să intervină şi să instituie un moratoriu[1]. Cu toate acestea, la mai mult de o lună de la apariția scrisorii respective se remarcă lipsa de reacție a factorului politic, precum și riscul ca aceasta să fie uitată într-un sertar de decident.

Corul neliniștilor – în cea mai mare parte justificate – provocate de amenințările tehnologiei IA aflată în plină dezvoltare și afirmare a fost completat, la 18 aprilie 2023, de analiza asupra riscurilor pentru securitatea națională asociate progresului IA, în special a acelora care privesc dezinformarea, prezentată de șeful Departamentului de telecomunicații al serviciilor secrete britanice (GCHQ), Jeremy Fleming, în fața guvernului britanic. Luând în considerare evaluarea lui Fleming, precum și punctul de vedere exprimat de consiliera științifică principală a guvernului britanic, Angela McLean, referitor la „potențialele domenii de aplicare și riscuri” ale IA, executivul britanic a subliniat nevoia păstrării încrederii cetățenilor în legătură cu folosirea IA printr-o reglementare a acesteia „care să ofere oamenilor siguranță, dar care să nu inhibe inovația”[2].

Dezvoltarea rapidă a IA va influența „fiecare produs al fiecărei companii”, omenirea, ca societate, trebuind să se pregătească și să se adapteze noilor tehnologii, a opinat la rândul său Sundar Pichai, CEO-ul Google. De pildă, în următorii 5-10 ani, un medic radiolog va putea avea un colaborator IA care la începutul programului de lucru îi va spune care sunt cazurile grave de care este imperios necesar să se ocupe, dintre sutele care așteaptă deja o rezolvare. În același timp, Pichai a atras atenția cu privire la consecințele negative ale IA, mai ales cu referire la amploarea fenomenului de dezinformare, precum și a știrilor și imaginilor false. Mai mult, s-a pronunțat în favoarea elaborării și adoptării unor acte normative care să sancționeze abuzurile în domeniul IA. Deopotrivă, a mai menționat nevoia negocierii și a încheierii unor tratate internaționale pentru a face IA sigură pentru lume, precum și a unor reguli care „se aliniază cu valorile umane, inclusiv cu moralitatea”[3].

Pe lângă cele enumerate mai înainte, temeri în rândul populației se manifestă tot mai des în legătură cu apariția rapidă a chatbot-urilor ca integrări în tehnologia emergentă și societate. Astfel, rezultatele unui sondaj din Japonia, lansat pe 30 aprilie 2023, referitor la utilizarea pe scară largă a IA au revelat că 69,4% dintre japonezii chestionați  doresc o reglementare mai strictă în dezvoltarea IA. La fel, întrebări cu privire la reglementarea IA și influența acesteia asupra societății au fost ridicate în ultimul timp de tot mai multe guverne ale unor țări importante pe plan mondial. Așa fiind, „Italia a fost una dintre primele țări care a interzis temporar utilizarea ChatGPT. Deși oficialii au spus recent că tehnologia ar putea reintra în țară după ce a fost de acord cu cerințele de transparență.

În Germania, autoritățile de reglementare și-au lansat propria investigație cu privire la conformitatea cu Reglementările generale privind protecția datelor de către ChatGPT. La nivelul Uniunii Europene, parlamentarii finalizează Actul Inteligenței Artificiale, care va crea un precedent pentru toate statele membre.

Autoritățile chineze au anunțat, de asemenea, că companiile de inteligență artificială și tehnologia în sine vor fi în curând supuse unor revizuiri obligatorii de securitate ca urmare a creșterii dezvoltării tehnologiei”[4].

Ca un corolar la cele de mai sus este editorialul publicat în The Economist de celebrul istoric și filosof Yuval Noah Harari, autorul cunoscutelor volume Sapiens. Scurtă istorie a omenirii, Homo deus. Scurtă istorie a viitorului, 21 de lecții pentru secolul XXI. „Calculatoarele care spun povești vor schimba cursul istoriei omenirii”, ne spune acesta, aducând în sprijinul afirmației sale o serie de argumente puternice și relevante.  Așadar, după ce arată că frica de IA a marcat omenirea încă de la începutul erei computerelor, Harari susține că în ultima perioadă „IA a dobândit niște abilități remarcabile de a manipula și de a genera limbaj, fie că este vorba de cuvinte, sunete sau imagini. IA a spart astfel sistemul de operare al civilizației noastre”. Ne găsim, așadar, în fața unor instrumente noi ale IA care, din punctul nostru de vedere, în lipsa unor reglementări specifice  fundamentate pe o adevărată și nouă evaluare juridică  privind în primul rând dezvoltarea și utilizarea IA în condiții de siguranță și în folosul  speciei umane, pot amenința supraviețuirea civilizației noastre. Plecând de la ideea că „limbajul este materialul din care este făcută aproape toată cultura umană”, Harari ridică o întrebare pe care o apreciem ca fundamentală pentru anii care vor urma, și anume: „Ce s-ar întâmpla odată ce o inteligență non-umană va deveni mai bună decât omul mediu la a spune povești, a compune melodii, a desena imagini și a scrie legi și scripturi?” . În editorialul său Harari prezintă o serie de scenarii posibile în legătură cu impactul pe care IA, concepută și dirijată să producă „în masă conținut politic, știri false și scripturi pentru noi culte”, îl va avea asupra unor importante sfere de activitate umană. Și dă ca exemplu, printre multe altele, viitoarea cursă prezidențială care va avea loc în SUA în anul 2024. Simultan ne spune că scăparea de sub control a IA poate avea ca efect un „potențial sfârșit al istoriei umane. Nu sfârșitul istoriei, ci doar sfârșitul părții sale dominate de oameni”.

După care lansează o nouă și provocatoare întrebare: „Ce se va întâmpla cu cursul istoriei atunci când IA va prelua cultura și va începe să producă povești, melodii, legi și religii?” Pentru ca apoi să afirme că „Instrumentele anterioare, cum ar fi presa tipărită și radioul, au ajutat la răspândirea ideilor culturale ale oamenilor, dar nu au creat niciodată idei culturale noi și proprii. IA este fundamental diferită. IA poate crea idei complet noi, o cultură complet nouă”.

Inteligența artificială nereglementată sau reglementată superficial poate fi în viitorul apropiat „o nouă armă de distrugere în masă care poate anihila lumea noastră mentală și socială”, dacă este lăsată să pătrundă în intimitatea noastră și să ne influențeze gândurile, mentalitățile, comportamentul și acțiunile. Este în opinia noastră ideea principală ce se degajă din cele înfățișate de Harari în editorialul său. Așa cum din 1945 ordinea internațională a trebuit să fie adaptată la particularitățile tehnologiei nucleare pentru a proteja umanitatea  de extincție și pentru a ne asigura că aceasta este folosită pentru binele oamenilor (de pildă, pentru a produce energie ieftină), tot așa, ne spune Harari, acum este nevoie rapid de a reglementa instrumentele IA deoarece aceasta „poate crea IA exponențial mai puternice. În consecință,  o primă acțiune capitală în această direcție „este să cerem verificări riguroase de siguranță înainte ca instrumentele puternice ale IA să fie lansate în domeniul public (…) Ar trebui să punem capăt implementării iresponsabile a instrumentelor de inteligență artificială în sfera publică și să reglementăm inteligența artificială înainte ca ea să ne reglementeze pe noi. Iar prima reglementare (…) este să impunem obligativitatea ca IA să dezvăluie faptul că este o IA. Dacă am o conversație cu cineva și nu pot spune dacă este un om sau o IA – acesta este sfârșitul democrației”[5].

În ceea ce ne privește, ca o concluzie la cele relevate mai înainte, apreciem că pe lângă cercetările tehnice în siguranţa IA ce vizează atât funcţionarea aşa cum trebuie a maşinilor în mod independent, cât şi colaborarea eficientă cu specialiştii care le con­trolează (aceste cercetări cuprind patru mari domenii: verificare, validare, securitate şi control), este imperios necesară o reglementare la nivel naţional, regional (de pildă, unional‑european) şi interna­ţional a domeniului IA în folosul speciei umane, şi nu invers.

P.S.: Acest text nu a fost generat de IA. Încă…


[1] A se vedea pe larg, Ovidiu Predescu, Ovidiu-Roland Predescu, Inteligența artificială azi. O perspectivă a dreptului, a drepturilor omului, a eticii și nu numai, Editura Universul Juridic, București, 2023, p. 66-69.
[2] A se vedea https://www.g4media.ro/serviciile-secrete-britanice-avertizeaza-guvernul-asupra-riscurilor-inteligentei-artificiale-ministrii-britanici-au-subliniat-ca-este-de-o-importanta-vitala-sa-fie-pastrata-increderea-cetatenilor.html, accesat la 18 aprilie 2023.
[3] Ionuț Șișu, Viziunea șefului Google despre AI: Lumea trebuie să se pregătească pentru inevitabil, disponibil pe https://www.wall-street.ro/articol/International/296388/viziunea-sefului-google-despre-ai-lumea-trebuie-sa-se-pregateasca-pentru-inevitabil.html, accesat la 20 aprilie 2023.
[4] Bogdan Antonescu, Deși guvernul japonez are în vedere integrarea Inteligenței artificiale în sistemele sale, un sondaj în rândul populației arată contrariul, disponibil pe https://www.stiripesurse.ro/desi-guvernul-japonez-are-in-vedere-integrarea-inteligentei-artificiale-in-sistemele-sale-un-sondaj-in-randul-populatiei-arata-contrariul_2897630.html, accesat la 2 mai 2023.
[5] Disponibil pe http://m.stiri.tvr.ro/yuval-noah-harari-semenal-de-alarma-privind-inteligen-a-artificiala-a-spart-sistemul-de-operare-al-civiliza-iei-umane_930118.html, accesat la 4 mai 2023.


Prof. univ. dr. Ovidiu Predescu
Secretar general al Academiei de Științe Juridice din România