Secţiuni » Materii / Arii de practică » Business » Cyberlaw
Cyberlaw
DezbateriCărţiProfesionişti
Banner BA-01
Servicii JURIDICE.ro
Banner BA-02
Cyberlaw Drept civil Dreptul sanatatii / Health & Pharma Revista revistelor juridice SELECTED

RoboticsLaw. Între asumarea evoluției tehnologice și reglementarea răspunderii civile (I)

25 iunie 2018 | Veronica DOBOZI, Tudor COLȚAN
Veronica Dobozi

Veronica Dobozi

Tudor Colțan

Tudor Colțan

“I think we should be very careful about artificial intelligence. If I had to guess at what our biggest existential threat is, it’s probably that. So we need to be very careful with artificial intelligence.

I’m increasingly inclined to think that there should be some regulatory oversight, maybe at the national and international level, just to make sure that we don’t do something very foolish. With artificial intelligence we’re summoning the demon”[1].

Elon Musk

* A se vedea și dezbateri.juridice.ro, ediția 206: Inteligența artificială între dezideratele tehnologice și realitățile juridice 

1. Perspectiva trecutului cu privire la inteligență artificială și frica prezentului

În anul 1944 Alan Turing, despre care se spune că ar fi fost primul cercetător din lume în domeniul inteligenței artificiale[2], vorbea pentru prima dată despre construirea unui “creier” într-o bază secretă MI6. În anul 1950, cercetătorul britanic a prezentat intr-un articol de-al său celebrul imitation game prin intermediul căruia o mașinărie putea fi considerată inteligentă dacă putea imita omul.

Pornind de la acest test, pe parcursul timpului, inteligența artificilă (”AI”)  a stârnit multă curiozitate și o dorință uriașă de dezvoltare. Într-un articol de referință[3] semnat de către profesorul universitar de la Standford University, John McCarthy, unul dintre cei mai de seamă cercetători în domeniul inteligenței artificiale, acesta a expus o serie de interogații cu privire la  noul domeniu ce concentra eforturile sale de analiză. Întrebarea care ne-a atras atenția cel mai mult a fost următoarea: Tinde inteligența artificală către a fi la același nivel ca inteligența umană? Răspunsul autorului a fost: da, efortul suprem este de aconcepe programe artificiale care pot să rezolve probleme sau să îndeplinească sarcini care presupun grade diferite de complexitate la fel ca oamenii.

Aceste idealuri mărețe în domeniul inteligenței artificiale au provocat numeroase rezerve  printre cele mai importante figuri care domină lumea tehnolgică. Elon Musk, Bill Gates și Steve Wozniak și-au afirmat public temerile  în privința inteligenței artificiale. În timp ce Elon Musk a afirmat că inteligența artificială poate fi comparată cu invocarea unui demon, Bill Gates, fondatorul Microsoft  a susținut într-un interviu[4] faptul că „la început mașinările vor face multe treburi pentru noi și nu vor fi super inteligente. Acest aspect este unul pozitiv dacă știm să îl controlăm bine. După câteva decenii inteligența artificială va fi suficient de puternică pentru a fi îngrijorătoare”. De asemenea, Steve Wozniak, cofondatorul Apple a susținut faptul că “În ipoteza în careconstruim aceste dispozitive pentru a avea grijă de toate problemele noastre, eventual ele vor gândi mai rapid ca noi și vor elimina oamenii mai lenți pentru a conduce companiile mai eficient[5].

În contextul în care chestiunea inteligenței artificiale presupune deja, din stadiul incipient, o abordare multidisciplinară și având în vedere problematica sa profundă, considerăm că este necesar să analizăm răspunderea civilă aplicabilă inteligenței artificiale și necesitatea existenței unor cadre normative speciale în acest sens. În ceea ce privește discuția despre drepturile civile ale roboților, acesta a făcut deja subiectul unui articol[6], față de care vom reveni curând.

2. Legiuitorul european: între entuziasmul reglementării și lipsa unui cadrul legislativ în domeniul inteligenței artificiale

La nivel european, începând cu anul 2015, în cadrul Parlamentului European s-a înființat o comisie de lucru cu privire la întrebările legale în legătură cu dezvoltarea roboților și a inteligenței artificiale[7]. În urma lucrărilor comisiei a fost elaborat un raport cu recomandările  acesteia, în care erau analizate mai multe aspecte, printre care principiile etice și răspunderea pentru roboți și inteligență artificială[8]. În final, Parlamentul European a adoptat o rezoluție în data de 16 februarie 2017 cu privire la drepturile civile în raport de roboți[9].

În cadrul Rezoluției s-au tratat principiile generale, răspunderea civilă pentru roboți, principiile etice, înființarea unei agenții europene pentru roboți și inteligență artificială, aspecte cu privire la securitate și siguranță, precum și tipuri de roboți, impactul educațional și al mediului inconjurător. De asemenea, anexat Rezoluției există mai multe definții ale roboților inteligenți și clasificarea acestora, precum și un cod etic pentru inginerii în domeniul roboticii.

Nu în ultimul rând, în anexa Rezoluției găsim și ideea existenței unei licențe pentru designerii de roboți și pentru cei care folosesc roboții.

Pe cale de consecință, observăm că la nivelul Parlamentului European s-a adoptat o rezoluție care îndeamnă la adoptarea unei Directive cu privire la drepturile civile ale roboților și a inteligenței artificiale. Așadar, la acest moment, nu avem niciun actnormativ care să impună statelor membre adoptarea un cadru legislativ național în raport de evoluția roboților și a inteligenței artificiale.

În luna iunie 2017, Comisia Europeană a răspuns solicitării Parlamentului European cu privire la adoptarea unei rezoluții în domeniul drepturilor civile ale roboților și a inteligenței artificiale[10]. Astfel Comsia Europeană a precizat că este important să se analizeze posibilitățile adaptării legislației în materia răspunderii civile pentru evoluția tehnologică și, implicit în domeniul roboților și a inteligenței artificiale, iar în acest sens a lansat în ianuarie 2017 o consultare publică cu privire la adaptarea răspunderii civile.

De asemenea, Comisia Europeană are în vedere și posibilitatea revizuirii Directivei 85/374/EEC cu privire la răspunderea pentru produsele defecte. In acest sens, având în vedere obiectul de reglementare al Directivei (răspunderea  non-contractuală pentru producătorii la nivelul european), s-ar putea extinde sfera de aplicare a regulilor privind răspunderea civilă din această Directivă și cu privire la situațiile care privesc roboții și inteligența artificială.

Cu toate acestea, Comisia Europeană analizează modalitatea de gestionare a riscurilor cu privire la răspunderea civilă și este de acord cu propunerile Parlamentului European pentru implementarea unui sistem de asigurări în cazul răspunderii civile pentru roboți și inteligență artificială.

Pe cale de consecință, Comisia Europeană a temperat entuziasmul Parlamentului European cu privire la reglementarea răspunderii civileaplicabile roboților, respectiv inteligenței arificiale printr-o Directivă și are în vedere, cel mult, o revizuire a Directivei 85/374/EEC cu privire la răspunderea pentru produsele defecte.

3. Regimul juridic al răspunderii civile pentru roboți și inteligență artificială, așa cum a fost creionat prin Recomandarea Parlamentulu European

Parlamentul European a subliniat că răspunderea civilă pentru roboți și pentru inteligența artificială  este crucială și aceasta trebuie să fie analizată la nivelul Uniunii Europene. În acest sens, s-au creionat mai multe linii directoare cu privire la regimul juridic al răspunderii.

În primul rând, indiferent de maniera  concretă de reglementare a răspunderii civile, fie că avem în vedere despăgubiri sau o altă modalitate de compensare pentru cazurile  în care o victimă a suferit un prejudiciu, aceasta nu trebuie să limiteze dreptul la acoperirea prejudiciului cauzat de un subiect non-uman.

În al doilea rând,aspectul cel mai important din punctul nostru de vedere, referă la condițiile anagjării răspunderii civile pentru roboți și pentru  inteligența artificială. Legat de aceasta, Recomandarea prevede 3 condiții esențiale ce trebuie îndeplinite pentru a putea fi incidentă o astfel de răspundere:
– Existența unei nefuncționalități a robotului sau a dispozitivului AI;
– Existența prejudiciului produs;
– Legătura de cauzalitate dintre nefuncționalitatea robotului și prejudiciul produs.

În ceea ce privește aprecierea răspunderii civile, trebuie punctat un aspect esențial: la acest moment, atragerea răspunderii civile este strict legată de o persoană, neputând exista în absența subiectului uman, și nu de un robot. În acest sens, în Recomandare se subliniază că miza o constituie identificarea unei modalități de apreciere proporționată a răspunderii, în funcție de nivelul instrucțiunilor și gradul de autonome a robotului.

In final, cu toate că aprecierea și atragerea răspunderii civile pentru roboți și pentru inteligență artificială este complexă și presupune mai multe aspecte ce trebuie supuse analizei, Recomandarea Parlamentului European privește instituirea unei poliție de asigurare obligatorie, similară celei aplicabile asigurărilor obligatorii pentru autovehicule. Cu toate acestea, se menționează că, spre deosebire de asigurările din domeniul auto unde se angajează răspunderea doar pentru faptele oamenilor, în cazul unui sistem de asigurare pentru roboți se vor avea în vedere toate posibilitățile de răspundere (inclusiv o răspundere autonomă, s.ns.).

Pe cale de consecință, acest regim juridic recomandat de Parlamentul European nu a fost încă structurat într-un act normativ, urmând ca cel mai probabil, având în vedere flexibilitatea accentuată a domeniului inteligenței artificiale, indicațiile Parlamentului European să fie dezvoltate la nivel unional și, ulterior preluate în legislațiile statelor membre.

4. Răspunderea civilă pentru roboți și inteligență artificială în România

După ce în prima secțiune am analizat în ce stadiu se află legislația, la nivelul Uninii Europene, cu privire la  răspunderea civilă pentru roboți și inteligență artificială, vom examina în continuare ce dispoziții legale ar fi incidente în România în cazul producerii unui accident comis de către un robot sau de către un dispozitiv care funcționează pe baza de inteligență artificială.

Cu titlu preliminar, după ce am studiat răspunsul Comisiei Europene la Recomandarea Parlamentului European cu privire la reglementarea unei răspunderi civile pentru roboți și inteligență artificială, se ridică următoarea întrebare legitimă: dacă Comisia Europeană a făcut trimitere la Directiva 85/374/EEC cu privire la răspunderea pentru produsele defecte ca un eventual viitor temei pentru atragerea răspunderii civile pentru un incident implicand un robot, ar putea fi aplicabil același raționament în dreptul intern, în condițiile în care respectiva Directivă a fost transpusă în România prin Legea nr. 240/2004 privind răspunderea producătorilor pentru pagubele generate de produsele cu defecte?

Considerăm că răspunsul este nu, în măsura în care Directiva, în forma actuală, nu acoperă într-un mod eficient răspunderea pentru roboți și inteligență artificială și, pe cale de consecință, nici norma legislativă internă prin care a fost transpusă nu are aptitudinea de a o faceacest aspect fiind subliniat și în Rezoluția Parlamentului European.

Așadar, în lipsa unei reglementări speciale, temeiul juridic în baza căruia se va analiza răspunderea civilă pentru roboți și inteligență artificială este Codul civil, respectiv răspunderea civilă delictuală. Cu toate că sfera răspunderii civile delictuale este clară, în raport de specificitatea și complexitatea roboților și a inteligenței artificiale, lucrurile nu sunt deloc simple.

În primul rând, trebuie să avem în vedere categoriile de roboți sau roboți inteligenți, așa cum au fost denumiți.

Printre categoriile care prezintă interes pentru problematica avută în vedere se numără vehiculele autonome, roboții casnici, roboții medicali, roboții de mentenanță, dronele și roboții humanoizi.

În raport de prima categorie de dispozițive dotate cu inteligență artificială, respectiv mașinile care se conduc singure, în anul 2016 un avocat ridica prima întrebare într-un articol publicat în Harvard Journal of Law & Technology[11], atrâgând atenția cu privire la cine sau ce va fi tras la răspundere în cazul unui accident produs de o un vehicul autonom. Din pacate, în luna martie 2018 un astfel de accident s-a și produs, fiind soldat cu decesul unei victime[12]. Pe scurt, a fost vorba despre un vechiul autonom operat de compania Uber, iar acesta nu a recunoscut o femeie care a traversat printr-un loc neregulamentar cu bicicleta.

Pornind de la această primă categorie și imaginându-ne o astfel de situație care s-ar petrece în România, se ridică întrebarea legitimă: cine ar răspunde pentru asemenea incident și care ar fi temeiul juridic în baza căruia s-ar angaja răspunderea civilă?

În opinia noastră, la acest moment de evoluție al inteligenței artificiale și a roboților, este clar că un astfel de accident are la bază o eroare în sistemul de operare al robotului sau al dispozitivului care folosește inteligența artificială. Această eroare, care stă la baza incidentului nefericit, trebuie să fie raportată în mod obligatoriu la o persoană care să fie responsabilă cu activitatea respectivului robot sau dispozitiv.

Angajarea răspunderii civile pentru roboți și inteligență artificială este extrem de dificilă dacă nu avem o reglementare specială, dar, așa cum am afirmat mai sus, vom încerca să extrapolăm aplicabilitatea normelor juridice existente la aceste situații inedite, cu precizarea imperativă că este necesar un cadrul normativ special.

Așadar, la acest moment apreciem că atât roboții cât și dispozitivele care folosesc inteligența artificială sunt  niște lucruri, în accepțiunea Codului civil,  de care beneficiază o persoană. Având în vedere aceast pilon stabilit, în cazul unui incident creat de către un robot sau un dispozitiv care folosește inteligența artificială, persoana care beneficia de acțiunile robotului sau de dispozitivul care folosea inteligența artificală va răspunde în temeiul răspunderii civile delicutale pentru lucruri reglementată în art. 1376 din Codul civil.

De esența acestui tip de răspundere este caracterul obiectiv al acesteia, respectiv faptul că nu este necesară a fi dovedită vreo culpă pentru folosirea lucrului care a produs respectivul incident. Cu toate că la o primă lectură lucrurile ar părea simple, nu este deloc așa. Din cauza complexității roboților și a dispozitivelor care folosesc inteligență artificială, beneficiarul robotului ar putea opune următoarea chestiune: ”De ce să răspund eu pentru un lucru care mi-a fost prezentat ca fiind un mare ajutor și care părea ideal pentru nevoile mele?” Spre pildă, o persoană care încheie un contract de întreținere cu bunicul său achiziționează un robot medical pentru a-i asigura asistența medicală și administrarea în mod corect  a medicamentelor. Din nefericire, robotul prezintă într-o zi o eroare și îi administrează bunicului o doză greșită de medicamente iar acesta decedează. În această speță ipotetică apar mai multe probleme de drept și mai mulți actori juridici.

Acțiunea ilicită, respectiv administrarea în mod greșit a medicamentelor de către robot poate să aibă mai multe cauze:
A) setarea în mod greșit a robotului de către utilizator;
B) introducerea în mod greșit a planului de medicamentație de către doctorul pacientului;
C) o eroare de soft in partea proiectantului robotului;

Desigur că ar putea să existe mai multe situații, dar chiar dacă ne limităm la acestea trei, lucrurile nu se prezintă deloc simplu, deoarece am putea avea trei responsabili diferiți pentru acțiunea ilicită a robotului, respectiv: proprietarul robotului pentru cazul A, medicul pacientului pentru cazul B, respectivproiectantul robotului pentru cazul C.

Dispozițiile Codului civil în materia răspunderii civile delictuale pentru lucruri sunt insuficiente pentru a acoperi toate aceste situații și mai ales, pentru a oferi unei instanțe de judecată posibilitatea de a aprecia situația de fapt în viziunea normelor juridice și a pronunța o hotărâre legală și temeinică.

Pare firesc să afirmăm că o persoană răspunde pentru prejudiciul cauzat de lucrul său, indiferent de culpă într-un context în care nu ne depărtăm de definiția consacrată pe care o dăm lucrului, cum ar fi ipoteza unei mașini lipsite de autonomie, , dar atunci când atribuim același grad de răspundere proprietatului unui robot capabil de o multitudine de acțiuni, cu un grad înalt de autodeterminare, intuiția noastră este ușor contrariată..

Pe cale de consecință, atragerea răspunderii civile delictuale pentru lucruri într-un astfel de exemplu ar părea greu de acceptat, așa cum este dreptul configurat la acest moment, având în vedere  principiile generale și exigențele echității.

Din punctul nostru de vedere, doar in anumite situații foarte clare s-ar putea atrage răspunderea pentru roboți având ca temei art. 1376 din Codul civil, iar în restul situaților este necesară o analiză complexă a cauzelor care au condus la producerea incidentului.

De lege ferenda, singura soluție pentru variile riscuri ce derivă din astfel de  evenimente este reglementarea unui cadrul legislativ bine documentat în materia roboților și a inteligenței artificiale, care ar putea fi integrată în Codul civil ca o formă separată de răspundere, respectiv “răspunderea civilă delictuală pentru roboți și inteligență artificială”, iar această formă ar trebui să acopere mai multe probleme printre care: (i) condițiile speciale de angajare a răspunderii, (ii) analizarea prejudiciului suferit în funcție de tipul de robot implicat în eveniment și (iii) existența unui mecanism de asigurare obligatoriu la achiziționarea unui asemenea robot sau dispozitiv care folosește inteligența artificială.

În final, depinde doar de noi cum ne vom asuma evoluția tehnologiei, dar un lucru este sigur: pasivitatea în reglementarea riscurilor care derivă din evoluția tehnologiei ar putea însemna peste ani un consimțământ implicit oferit la niște evenimente tragice.


[1] A se vedea interviul complet a lui Elon Musk, oferit in anul 2014 la Universitatea MIT, disponibil la adresa web https://techcrunch.com/2014/10/26/elon-musk-compares-building-artificial-intelligence-to-summoning-the-demon/?guccounter=1 , ultima accesare 23 iunie 2018.
[2] A se vedea John McCarthy, Computer Science Department, Standford University, What is Artificial intelligence, articol disponibil la adresa web www-formal.stanford.edu/jmc/whatisai.pdf , ultima accesare 23 iunie 2018.
[3] Idem;
[4] A se vedea articolul din Forbs, disponibil la adresa web https://www.forbes.com/sites/ericmack/2015/01/28/bill-gates-also-worries-artificial-intelligence-is-a-threat/#637d9556651f , ultima accesare 23 iunie 2018.
[5] A se vedea articolul la următoarea adresă web https://www.entrepreneur.com/article/244236 .
[6] A se vedea V. Dobozi, T. Colțan, Drepturi civile pentru roboții humanoizi?, disponibil la următoarea adresă web https://www.hotnews.ro/stiri-specialisti_stoica_si_asociatii-22402441-drepturi-civile-pentru-robotii-umanoizi.htm#self
[7] A se vedea informația la următoarea adresă web http://www.europarl.europa.eu/committees/en/juri/robotics.html?tab=Background ultima vizualizare 18 iunie 2018
[8] A se vedea raportul la următoarea adresă web http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//EN ultima vizualizare 6 mai 2018
[9] A se vedea Rezoluția Parlamentului European adoptată în data de 16 februarie 2017, disponibilă la următoarea adresă web http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN , ultima vizualizare 1 mai 2018.
[10] A se vedea răspunsul Comisiei Europene la următoarea adresă web http://www.eu-nited.net/robotics/news-events/robotics-news/european-commissions-response-to-the-european-parliaments-resolution-on-civil-law-rules-on-robotics.html , ultima vizualizare 23 iunie 2018.
[11] A se vedea M. U. Scherer, Regulating artificial intelligence sysyems: risks,challenges, competencies and strategies, Harvard Journal of Law & Technolgy, volume 29, Number 2, Spring, 2016, disponibil la adresa web jolt.law.harvard.edu/articles/pdf/v29/29HarvJLTech353.pdf , ultima accesare 24 iunie 2018.
[12] A se vedea articolul https://www.theguardian.com/technology/2018/mar/19/uber-self-driving-car-kills-woman-arizona-tempe , ultima accesare 24 iunie 2018.


Av. drd. Veronica Dobozi
Partner STOICA & Asociații

Av. drd. Tudor Colțan
Associate STOICA & Asociații

Citeşte mai mult despre , , , , , , , ! Pentru condiţiile de publicare pe JURIDICE.ro detalii aici.
Urmăriţi JURIDICE.ro şi pe LinkedIn LinkedIn JURIDICE.ro WhatsApp WhatsApp Channel JURIDICE Threads Threads JURIDICE Google News Google News JURIDICE

(P) JURIDICE.ro foloseşte şi recomandă SmartBill.

 
Homepage J JURIDICE   Cariere   Evenimente   Dezbateri   Profesionişti   Lawyers Week   Video
 
Energie
Fiscalitate
Fuziuni & Achiziţii
Gambling
Health & Pharma
Infrastructură
Insolvenţă
Malpraxis medical
Media & publicitate
Mediere
Piaţa de capital
Procedură civilă
Procedură penală
Proprietate intelectuală
Protecţia animalelor
Protecţia consumatorilor
Protecţia mediului
Sustenabilitate
Recuperare creanţe
Sustenabilitate
Telecom
Transporturi
Drept maritim
Parteneri ⁞ 
Specialişti
Materii / Arii de practică
Business ⁞ 
Litigation ⁞ 
Protective
Achiziţii publice
Afaceri transfrontaliere
Arbitraj
Asigurări
Banking
Concurenţă
Construcţii
Contencios administrativ
Contravenţii
Corporate
Cyberlaw
Cybersecurity
Data protection
Drept civil
Drept comercial
Drept constituţional
Drept penal
Dreptul penal al afacerilor
Dreptul familiei
Dreptul muncii
Dreptul securităţii sociale
Dreptul Uniunii Europene
Dreptul sportului
Drepturile omului
Articole
Essentials
Interviuri
Opinii
Revista de note şi studii juridice ISSN
Note de studiu
Studii
Autori ⁞ 
Publicare articole
Jurisprudenţă
Curtea Europeană a Drepturilor Omului
Curtea de Justiţie a Uniunii Europene
Curtea Constituţională a României
Înalta Curte de Casaţie şi Justiţie
Dezlegarea unor chestiuni de drept
Recurs în interesul legii
Jurisprudenţă curentă ÎCCJ
Curţi de apel
Tribunale
Judecătorii
Legislaţie
Proiecte legislative
Monitorul Oficial al României
Jurnalul Oficial al Uniunii Europene
Flux noutăţi
Selected
Top Legal
Avocaţi
Consilieri juridici
Executori
Notari
Sistemul judiciar
Studenţi
RSS ⁞ 
Publicare comunicate
Proiecte speciale
Cărţi
Condoleanţe
Covid-19 Legal React
Creepy cases
Life
Poezii
Povestim cărţi
Poveşti juridice
Războiul din Ucraina
Revista revistelor juridice
Wisdom stories

J   Servicii   Membership   Comunicare   Documentare   Legal Talent Search   Partnership   Servicii tehnice