Propuneri la nivel european privind răspunderea pentru prejudicii cauzate de inteligența artificială
11 ianuarie 2023 | Marius STANCIU, Vlad MUREȘAN1. Observații introductive
Inteligența artificială traversează o perioadă de evoluție impresionantă, găsindu-și rapid locul în toate domeniile societății. Dezbaterile asupra efectelor potențiale ale acestor revoluții tehnologice sunt ample, Uniunea Europeană fiind angajată în urmărirea atentă a acestei evoluții. Astfel, în data de 28 septembrie 2022, Comisia Europeană a publicat două propuneri de directive cu scopul de a actualiza reglementările privind răspunderea pentru produse la era digitală.
Una dintre aceste propuneri se referă în mod specific la despăgubirile pentru prejudiciile cauzate de sistemele de inteligență artificială („IA”). În plus, normele generale privind răspunderea pentru produse au fost simplificate și extinse pentru a acoperi și produsele digitale.
Propunerile de directivă sunt:
– Propunerea de Directivă privind produsele cu defecte („Propunerea de Directivă Actualizată”).
– Propunerea de Directivă privind adaptarea normelor referitoare răspunderea civilă extracontractuală la inteligența artificială („Propunerea de Directivă privind răspunderea IA”);
Propunerile de mai sus fac parte dintr-un pachet mai larg de acte legislative, printre care se numără și Propunerea de Regulament de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a unor acte legislative ale Uniunii („Propunerea de Regulament privind IA”).
Didier Reynders, Comisar pentru Justiție, a declarat că[1] este esențial să se acorde prioritate siguranței consumatorilor atunci când se abordează potențialul vast al noilor tehnologii.
Comisarul a subliniat importanța asigurării unei protecții adecvate pentru cetățenii UE, întrucât aceasta reprezintă fundamentul pentru încrederea consumatorilor și pentru succesul inovării. Acesta a evidențiat necesitatea de a ne adapta cadrul juridic pentru a se adapta la transformarea digitală care are loc, într-un mod surprinzător de accelerat.
2. Prevederi relevante ale Propunerii de Directivă Actualizată
Actuala Directivă privind Produsele cu Defecte este în curs de revizuire din cauza caracterului său învechit, urmare a faptului că a fost adoptată inițial în 1985. După cum se arată și în expunerea de motive a Propunerii de Directivă Actualizată „tranziția ecologică și cea digitală sunt în curs de desfășurare și aduc cu ele beneficii enorme pentru societatea și economia Europei, fie că este vorba de prelungirea duratei de viață a materialelor și a produselor, de exemplu prin refabricare, sau prin creșterea productivității și a confortului datorită produselor inteligente și inteligenței artificiale.”.[2]
Noua directivă o va înlocui pe cea veche și va acoperi și produsele software defecte, ceea ce reprezintă o schimbare față de interpretarea anterioară conform căreia doar producătorii sau importatorii unui produs puteau fi trași la răspundere, nu și dezvoltatorii de software.
Propunerea de Directivă Actualizată permite ca răspunderea furnizorului să se bazeze pe un defect al produsului, mai degrabă decât pe o culpă.
Astfel, prin Propunerea de Directivă Actualizată se modernizează normele privind răspunderea pentru produse în era digitală, în sensul permiterii despăgubirii daunelor atunci când produse precum roboții, dronele sau sistemele inteligente pentru casă devin nesigure din cauza actualizărilor de software, a IA sau a serviciilor digitale necesare pentru operarea produsului, precum și atunci când producătorii nu reușesc să remedieze vulnerabilitățile în materie de securitate cibernetică (conform comunicatului de presă al Comisiei Europene din 28 septembrie 2022).[3]
Articolul 9 alin. (1) din Propunerea de Directivă Actualizată prevede, ca regulă, că „[s]tatele Membre se asigură că un reclamant este obligat să dovedească caracterul defectuos al produsului, a prejudiciului suferit și a legăturii de cauzalitate dintre defecte și prejudiciul.”.
Tot în conformitate cu articolul 9 din Propunerea de Directivă Actualizată, există două prezumții recunoscute: (i) una privind caracterul defectuos [descrisă la articolul 9 alineatul (2)] și (ii) una privind legătura de cauzalitate între caracterul defectuos și prejudiciu [menționată la articolul 9 alineatul (3)].
Prezumția de defectuozitate este activată în trei cazuri specifice, după cum se detaliază la articolul 9 alineatul (2) din Propunerea de Directivă Actualizată:
– furnizorul nu divulgă informații despre sistem;
– reclamantul prezintă o defecțiune evidentă a sistemului;
– reclamantul demonstrează o încălcare a normelor de siguranță din partea furnizorului.
În cazul în care dauna este specifică unui defect, se presupune că există o relație de cauzalitate. Astfel, conform art. 9 alineatul (3) Propunerea de Directivă Actualizată „legătura de cauzalitate între defectul produsului și prejudiciu trebuie să fie prezumată, în cazul în care s-a stabilit că produsul este defect și prejudiciul cauzat are o natură care corespunde în mod obișnuit defectului în cauză.”.
În cazul în care este dificil de determinat cauza defectului din cauza complexității tehnice a sistemului, ambele prezumții pot opera concomitent [în temeiul articolul 9 alineatul (4) din Propunerea de Directivă Actualizată].
Astfel, conform articolului mai sus-menționat „[î]n cazul în care o instanță națională apreciază că reclamantul se confruntă cu dificultăți excesive, din cauza complexității tehnice sau științifice, pentru a dovedi caracterul defectuos al produsului sau legătura de cauzalitate dintre caracterul defectuos al acestuia și prejudiciu, sau ambele, caracterul defectuos al produsului sau legătura de cauzalitate dintre caracterul defectuos al acestuia și prejudiciu, sau ambele, se prezumă în cazul în care reclamantul a demonstrat, pe baza unor probe suficient de relevante, că:
(a) produsul a contribuit la daune; și
(b) este probabil ca produsul să fi fost defect sau ca defectuozitatea sa să fie de cauza probabilă a daunelor, sau ambele.”.
Cu toate acestea, pentru a opera prezumția de mai sus, reclamantul trebuie să furnizeze dovezi care să susțină probabilitatea defectului și faptul că produsul a cauzat daunele.
De asemenea, se prevede și dreptul pârâtului de a contesta aceste ipoteze prin demonstrarea faptului că nu există dificultăți tehnice excesive pentru a dovedi caracterul defectuos al produsului sau a faptului că produsul nu a contribuit la producerea prejudiciului.
3. Prevederi relevante ale Propunerii de Directivă privind răspunderea IA
Propunerea de Directivă privind răspunderea IA abordează mai multe aspecte cheie, inclusiv furnizarea de informații despre sistemul de IA unei persoane care a fost vătămată și existența a două prezumții legate de acest aspect.
Prima prezumție se referă la obligația de diligență, iar cea de-a doua implică legătura dintre culpă și rezultat, cunoscută sub numele de „prezumția de cauzalitate” [articolele 3 și 4 din Propunerea de Directivă privind răspunderea IA][4].
3. 1. În ceea ce privește obligația de diligență, aceasta este prevăzută la art. 2 alin. (9) din Propunerea de Directivă privind răspunderea IA, fiind definită drept „un standard de conduită necesar, stabilit de dreptul național sau de dreptul Uniunii, în scopul de a evita prejudicierea intereselor juridice recunoscute la nivel național sau la nivelul dreptului Uniunii, inclusiv viața, integritatea fizică, proprietatea și protecția drepturilor fundamentale”.
Astfel, conform art. 4 alineatul (1) din Propunerea de Directivă privind răspunderea IA „instanțele naționale prezumă, în scopul aplicării normelor de răspundere în cazul unei cereri de despăgubire, legătura de cauzalitate între culpa pârâtului și rezultatul produs de sistemul de IA sau de incapacitatea sistemului de IA de a produce un rezultat când toate condițiile de mai jos sunt îndeplinite:
(a) reclamantul a demonstrat sau instanța a prezumat în conformitate cu articolul 3 alineatul (5), culpa pârâtului sau a unei persoane pentru al cărei comportament pârâtul este responsabil, constând în nerespectarea unei obligații de diligență prevăzute în Uniunea sau națională, care vizează în mod direct protecția împotriva prejudiciului care s-a produs;
(b) pe baza circumstanțelor cazului, se poate considera, în mod rezonabil, că defecțiunea a influențat rezultatul produs de sistemul IA sau eșecul IA de a produce un rezultat;
(c) reclamantul a demonstrat că rezultatul produs de sistemul de IA sau incapacitatea sistemului de AI de a produce un rezultat a dat naștere la prejudiciu” (subl. ns.).
În conformitate cu cerințele Propunerii de Regulament privind IA, furnizorul ar fi tras la răspundere dacă nu își respectă obligația de diligență în ceea ce privește calitatea datelor, transparența, supravegherea umană, securitatea cibernetică sau dacă nu retrage un sistem defect atunci când acesta este identificat.
Pe de altă parte, un utilizator poate fi considerat responsabil dacă nu respectă instrucțiunile de utilizare sau dacă expune sistemul la date de intrare necorespunzătoare, însă persoana vătămată trebuie să furnizeze dovezi în sprijinul acestei afirmații.
3. 2. Prezumția de cauzalitate este activată dacă furnizorul sau utilizatorul, indiferent cine este pârâtul în acest caz, nu furnizează informații despre sistemul în cauză, chiar și după ce o instanță națională ordonă o astfel de dezvăluire [articolul 3 alineatul (5) din cadrul Propunerii de Directivă privind răspunderea IA].
Un „furnizor” în contextul Propunerii de Directivă privind răspunderea IA este definit ca fiind o persoană fizică sau juridică, o autoritate publică, o agenție sau un alt organism care dezvoltă un sistem de IA sau care dispune de un sistem de IA dezvoltat în vederea introducerii sale pe piață sau a punerii sale în funcțiune sub propriul nume sau propria marcă comercială, contra cost sau gratuit [articolul 2 alineatul (3) care face trimitere la articolul 3 alineatul (2) din Propunerea de Regulament privind IA].
Un „utilizator” poate fi orice persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități neprofesionale, personale [articolul 2 alineatul (4) care face trimitere la articolul 3 alin. (4) din Propunerea de Regulament privind IA].
Pârâtul poate răsturna prezumția de cauzalitate, demonstrând că au putut fi accesate suficiente informații referitoare la sistemul de inteligență artificială pentru a dovedi eventuala culpă a acestuia [articolul 4 alineatul (4) din cadrul Propunerii de Directivă privind răspunderea IA].
O altă condiție pentru ca răspunderea furnizorului să fie impusă cu succes este ca instanța națională să presupună că prejudiciul cauzat de un anumit sistem de inteligență artificială a fost „probabil” cauzat din vina acestuia [articolul 4 alineatul (1) litera (b) din cadrul Propunerii de Directivă privind răspunderea IA].
În conformitate cu articolul 3 din Propunerea de Directivă privind răspunderea IA, o persoană care a suferit un prejudiciu din cauza unui sistem de inteligență artificială poate solicita informații cu privire la acest sistem prin intermediul unei instanțe naționale.
Propunerea de Regulament privind IA are, de asemenea, o dispoziție similară la articolul 13[5], care impune divulgarea de informații despre sistemele de IA către utilizator. Cu toate acestea, cerința din Propunerea de Regulament privind IA se referă la utilizator, în timp ce cerința din Propunerea de Directivă privind răspunderea IA se extinde la orice victimă a unui prejudiciu cauzat de IA.
Scopul Propunerii de Directivă privind răspunderea IA este de a facilita procesul prin care se poate demonstra că o persoană sau o entitate este vinovată pentru orice prejudiciu suferit și de a solicita despăgubiri pentru orice daune rezultate.
De exemplu, în cazul în care o dronă cu inteligență artificială care funcționează defectuos într-un cadru civil și cauzează vătămări unui trecător, normele din cadrul Propunerii de Directivă privind răspunderea IA ar permite acestuia să solicite informații despre dronă de la furnizor sau utilizator pentru a determina culpa și a solicita despăgubiri.
De asemenea, dacă o mașină care se conduce singură intră în coliziune cu un pieton, reclamantul știe că a fost rănit în urma coliziunii. Dar este posibil să nu poată dovedi ce a cauzat-o, fără o cantitate enormă de timp și efort, dacă nu cumva chiar deloc.
Astfel posibilitate de a solicita informații în temeiul normelor din cadrul Propunerii de Directivă privind răspunderea IA permite determinarea cauzei prejudiciului: o defecțiune a algoritmului de detectare a pietonilor de către mașină, o eroare de software rezultată din faptul că proprietarul mașinii nu a descărcat o actualizare, o piratare a sistemelor mașinii sau o eroare din partea șoferului.
Un alt exemplu este reprezentat de situația în care o aplicație bazată pe IA poate fi folosită în alte scopuri decât furnizarea de informații care să ajute în simplificarea activităților unei persoane.
Astfel, dacă unei aplicații bazate pe IA i se cere să creeze un virus care să aducă în stare de neîntrebuințare un dispozitiv, se pune întrebarea legitimă cine este persoană vinovată de producerea acestei daune: este răspunzător utilizatorul pentru instrucțiunile date IA-ului sau dezvoltatorul pentru că nu a programat bariere în utilizarea IA-ului în activități ilicite?
Într-o astfel de ipoteză, suntem de părere că invocarea prezumției cauzalității prevăzute de Propunerea de Directivă privind răspunderea IA poate fi activată, reclamantul putându-se prevala de aceasta pentru a reuși să își repare prejudiciul, fie că este împotriva utilizatorului sau a dezvoltatorului aplicației.
4. Critici aduse propunerilor
Chiar dacă la nivelul UE se conturează un cadru prin care se încearcă reglementarea protecției consumatorilor ce ar putea fi vătămați de produsele bazate pe IA, propunerile legislative au fost supuse criticilor.
Organismul de supraveghere a protecției datelor din Marea Britanie [Information Commissioner’s Office (ICO)] a avertizat recent cu privire la potențialele riscuri și prejudicii ale utilizării sistemelor de inteligență artificială care pretind că efectuează „analize emoționale” și a declarat că o astfel de tehnologie ar trebui să fie utilizată doar în scopuri de divertisment, nu în alte scopuri.[6]
De asemenea, Organizația Europeană a Consumatorilor („OEC”) a criticat propunerile, susținând că, de fapt, ar lăsa consumatorii din UE mai puțin protejați de daunele cauzate de serviciile de inteligență artificială în comparație cu alte tipuri de produse.
Potrivit unui răspuns la propunerea Comisiei din septembrie 2022, noile norme arată progrese în anumite domenii, dar nu abordează în mod adecvat toate problemele și sunt prea permisive pentru serviciile bazate pe inteligența artificială.
În răspuns se afirmă că, spre deosebire de normele tradiționale privind răspunderea pentru produse, dacă un consumator este prejudiciat de un operator de servicii de inteligență artificială, acesta va trebui să dovedească faptul că operatorul este vinovat.
Având în vedere natura complexă a sistemelor de inteligență artificială, aceste condiții vor face practic imposibilă exercitarea de către consumatori a dreptului lor de a solicita despăgubiri pentru daune.
Pentru reclamanți poate fi dificil să demonstreze că prejudiciul cauzat de un sistem de inteligență artificială a fost rezultatul unui defect sau al unei disfuncționalități specifice, din cauza complexității și a lipsei de transparență a acestor sisteme.
Cunoscut sub numele de efectul „cutiei negre” sau „cutiei închise”, reclamanții au adesea o înțelegere limitată a modului în care funcționează sistemul de inteligență artificială și pot avea dificultăți în a stabili o relație de cauzalitate între sistem și prejudiciul suferit.
Această lipsă de vizibilitate poate face dificilă demonstrarea faptului că vătămarea a fost cauzată de un defect de proiectare sau de o altă defecțiune a sistemului.
Ursula Pachl, director general adjunct al OEC a declarat[7]: „Este esențial ca normele în materie de răspundere civilă să țină pasul cu faptul că suntem din ce în ce mai mult înconjurați de produse și servicii digitale și bazate pe inteligență artificială, cum ar fi asistenții casnici sau polițele de asigurare bazate pe prețuri personalizate.
Cu toate acestea, consumatorii vor fi mai puțin protejați atunci când vine vorba de serviciile de inteligență artificială, deoarece vor trebui să dovedească faptul că operatorul a fost vinovat sau neglijent pentru a solicita despăgubiri pentru daune.
A le cere consumatorilor să facă acest lucru este o adevărată dezamăgire. Într-o lume a sistemelor de inteligență artificială care au <<cutii negre>> extrem de complexe și obscure, va fi practic imposibil pentru consumator să utilizeze noile norme.
Prin urmare, consumatorii vor fi mai bine protejați dacă o mașină de tuns iarba le toacă pantofii în grădină decât dacă sunt discriminați în mod nedrept printr-un sistem de notare a creditelor.”
Astfel, consumatorii ar putea întâmpina dificultăți în a înțelege documentele tehnice pe care le pot obține prin intermediul dreptului de a solicita divulgarea informațiilor, prevăzut în Propunerea de Directivă privind răspunderea IA.
Potrivit unui purtător de cuvânt al Comisiei, Propunerea de Directivă privind răspunderea IA nu instituie un sistem de răspundere bazat pe culpă, ci mai degrabă urmărește să armonizeze anumite dispoziții ale regimurilor naționale existente de răspundere bazată pe culpă, pentru a se asigura că persoanele afectate de daunele cauzate de sistemele bazate pe IA nu sunt tratate mai puțin favorabil decât alte victime ale daunelor.
Comisia a declarat că, în cazul în care documentele în cauză sunt greu de înțeles pentru consumator, acesta are opțiunea de a solicita asistența unui expert în instanță, la fel ca în orice alt proces. În cazul în care cererea de despăgubire se dovedește a fi validă, pârâtul va fi responsabil pentru acoperirea costurilor expertului, în conformitate cu reglementările naționale privind repartizarea costurilor în procesele civile.
Potrivit purtătorului de cuvânt al Comisiei, în conformitate cu Propunerea de Directivă privind răspunderea IA, cei care au suferit un prejudiciu din cauza unui produs au dreptul de a solicita informații de la producător în legătură cu produsul respectiv. Aceste informații, cum ar fi jurnalele de date care au condus la un accident de mașină, ar putea fi dovezi valoroase pentru echipa de avocați a victimei pentru a determina dacă vehiculul a fost defect.
5. Concluzii
Uniunea Europeană este înaintea altor jurisdicții în abordarea legislativă asupra evoluțiilor rapide ale IA, propunând o serie de reglementări importante în acest sens. Propunerile Comisiei se află în stadiul legislativ inițial și vor suferi probabil diverse modificări înainte de adoptarea lor finală.
Comisia pare să încerce găsirea unei căi de mijloc între a fi prea agresivă în reglementarea dezvoltării serviciilor bazate pe IA și a putea împiedica inovarea, semnalând în același timp în mod clar riscurile potențiale pentru consumatori și tehnicieni, pentru a-i încuraja să ia în calcul responsabilitatea și pentru a preveni o escaladare necontrolată a daunelor.
Reglementările actualizate urmăresc să găsească un echilibru între protejarea consumatorilor și încurajarea inovării. Acest lucru include eliminarea barierelor pentru ca victimele să solicite despăgubiri, stabilind în același timp măsuri de protecție pentru industria IA, cum ar fi posibilitatea de a contesta cererile de despăgubire în baza unei presupuneri de cauzalitate.
[1] https://ec.europa.eu/commission/presscorner/detail/en/ip_22_5807
[2] https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52022PC0495&from=EN
[3] https://ec.europa.eu/commission/presscorner/detail/en/ip_22_5807
[4] https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf
[5] https://eur-lex.europa.eu/legal-content/RO/TXT/HTML/?uri=CELEX:52021PC0206&from=EN
[6] https://ico.org.uk/about-the-ico/media-centre/news-and-blogs/2022/10/immature-biometric-technologies-could-be-discriminating-against-people-says-ico-in-warning-to-organisations/
[7] https://www.beuc.eu/press-releases/eu-liability-rules-be-modernised-contain-ai-services-blind-spot-consumers
Marius Stanciu, Partner Buju Stanciu & Asociatii
Vlad Mureșan, Colaborator Buju Stanciu & Asociatii