TOP LEGAL
Înregistrările video sunt accesibile pentru membri şi parteneri. Cheltuială deductibilă fiscal. Reducere 39,6 euro pentru avocaţii din barourile Bucureşti, Ilfov, Dolj, Timiş, Prahova şi Sibiu. Se acordă 20 de puncte de pregătire profesională. UNBR încurajează extinderea naţională, detalii aici. Reducere 19,8 euro pentru executorii Camerei Executorilor Bucureşti, membrii UNELM şi notarii Camerei Notarilor Publici Bucureşti.
Abonare newsletter oficial JURIDICE.ro

Print Friendly, PDF & Email

Inteligenţa artificială. Instalarea algoritmilor informatici în domeniul dreptului penal

21.06.2018 | Adrian ŞANDRU
Adrian Șandru

Adrian Șandru

* A se vedea dezbaterea Inteligența artificială între dezideratele tehnologice și realitățile juridice (ediția 206)

În contextul actualelor propuneri de modificare a legislaţiei penale şi procesual penale, când dezbaterea se canalizează asupra existenţei sau dispariţiei instituţiei camerei preliminare, răspunderea penală a roboţilor cu inteligenţă artificială ( denumiţi în continuare „roboţi AI”) pare a fi un subiect departe de actualitate. Însă, datorită evoluţiei tehnologiei şi a capacităţilor roboţilor AI, contingenţa acestora cu sfera dreptului este intens dezbătută de specialişti ai dreptului din străinătate.

O eventuală răspundere penală a roboţilor AI pare poate pentru mulţi oameni, o idee mai apropiată de domeniul ştiințifico-fantastic, decât de realitatea juridică actuală. Deşi legătura dezvoltării tehnologice a inteligenţei artificiale cu domeniul juridic are ca nucleu recunoaşterea sau nu a drepturilor civile ale roboţilor AI, este extrem de interesantă discuţia cu privire la posibilele repercursiuni penale ale faptelor săvârşite de aceşti roboţi.

Adepţii răspunderii penale a roboţilor a AI, argumentează posibilitatea introducerii unei astfel de răspunderi penale, folosind ca argument răspunderea penală a persoanei juridice. Se susţine că în măsura în care o persoană juridică, fără o existenţă fizică, poate fi trasă la răspundere penală pentru conduita sa, pentru identitate de raţiune, conform principiului ubi eadem est ratio, eadem solutio esse debet, ar fi posibilă şi utilă incriminarea conduitei contrare legii penale a roboţilor AI[1]. Au fost împrumutate raţiunile şi mencanismele de tragere la răspundere penală ale persoanei juridice pentru a justifica incriminarea faptelor comise de entităţi cu inteligenţă artificială.

Pentru a reliefa impactul social pe care îl pot avea roboţii AI, vom folosi un exemplu în legătură cu domeniul dreptului pentru a atrage atenţia juriştilor de evoluţiile tehnologiei la care legislaţia va trebui la un moment dat să raspundă. Oamenii de ştiinţă de la două universităţi britanice de prestigiu au construit un robot “judecător” care poate să prezică soluţiile deciziilor Curţii Europene a Drepturilor Omului[2]. Acest robot a fost programat să analizeze cazurile atât pe aspect ce ţin de domeniul dreptului, cât şi cu privire la partea morală a cauzei. Acest robot a reuşit să prezică 79% din soluţiile deciziilor pronunţate de Curtea Europenă a Drepturilor Omului.

S-a dezbătut astfel, dacă împrumutând raţiunea principiului admiterii răspunderii penale a persoanei juridice ar putea să răspundă penal un robot AI.

Datorită impactului pe care îl au asupra societăţii, roboţii AI au atras atenţia juriştilor, fiind analizate implicaţiile acţiunilor acestora în sfera juridică. În analiza posibilităţii tragerii la răspundere a roboţilor AI, autorii identifică trei modele ce caracterizează o eventuală răspundere penală a acestora. Ceea ce diferenţiează însă un robot AI, comparativ cu orice alt robot, este capacitatea acestuia de dezvoltare continuă şi complexitatea de ordin subiectiv sistemului de operare cu repercursiuni asupra faptelor comise.

Aceste entităţi nu acţionează doar pe baza codului prin care au fost programate, ci au o capacitate de a „învăţa”, fiind caracterizate în mute situaţii de „înţelepciune”[3]. Ele acţionează independent de codul care le-a programat, asemănându-se cu fiinţa umană raportat la complexitatea de ordin psihic a „conştiinţei”. Roboţi AI sunt permanent în dezvoltare, pe baza relaţionării exterioare, scopul acestora fiind de a se îmbunătăţi permanent.

Primul model de reglementare a răspunderii penale a entităţilor AI, propus de doctrină[4], este cel al agentului inocent. Potrivit acestea teorii, un robot AI este totuşi doar un mecanism, fiind un instrument în comiterea unei infracţiuni. Raportat la această teorie, în situaţia în care un robot AI comite o infracţiune, răspunzător din punct de vedere penal pentru aceasta este ori programatorul robotului, ori user-ul final care controlează robotul. În aceast caz fapta îi este imputabilă unei persoane fizice care controlează robotul AI.

Un alt model propus, în susţinerea reglementării răspunderii penale a roboţilor AI, este cel al „consecinţei naturale a răspunderii”[5]. Acest model descrie programatorul robotului AI, drept o persoană care nu urmăreşte comiterea unei infracţiuni, entitatea acţionând de această dată în baza propriilor decizii. Se dă exemplul unui robot AI care este programat să funcţioneze ca un pilot automat al unui avion. Acesta în timpul funcţionării sale ar putea simţi o ameninţare a zborului, restricţiona accesul pilotului uman, chiar ar putea lua decizia depresurizării cabinei pentru a elimina persoana umană, care este privită ca o ameninţare asupra zborului. În această situaţie este limpede că programatorul entităţii AI nu a urmărit uciderea pilotului uman, însă ar fi putut să prevadă că robotul AI ar putea face orice ca să respecte îndatoririle sale. Se susţine că, în aceste situaţii persoana fizică care a programat robotul AI ar trebui să răspundă pentru acea infracţiune, dacă este consecinţa naturală a exercitării acţiunilor programate în sarcina robotului AI. Acestui model se poate circumscrie o speţă analizată de alţi autori[6], anume situaţia în care un pieton este accidentat de o maşină care se conduce singură, având instalat un sistem informatic inteligent destinat deplasării. S-a pus problema sub ce formă ar răspunde creatorul acelui program şi cu ce formă de vinovăţie.

Al treilea model propus este cel al răspunderii directe a entităţii AI exact ca răspunderea directă a persoanei juridice[7]. Se consideră că în această situaţie robotul AI acţionează independent de orice control al unei persoane fizice, luând decizia şi fiind responsabil din punct de vedere subiectiv de comiterea infracţiunii. În această situaţie atât factorul intelectiv, cât şi factorul volitiv se regăsesc în rezoluţia subiectivă a robotului AI, care comite cu vinovăţie o faptă tipică, motiv pentru care autorii militează pentru necesitatea recunoaşterii răspunderii penale a acestuia[8]. Se susţine că, dacă o persoană juridică poate răspunde penal pentru infracţiunile comise de aceasta, deşi nu are un „corp” sau o „conştiinţă”, cu atât mai mult s-ar impune incriminarea penală a faptelor comise de entităţile AI[9].

În concluzie, deoarece răspunderea penală a roboţilor AI este asemănată cu răspunderea penală e persoanei juridice, considerăm că este necesar a fi tranşată, cu titlu preliminar, dezbaterea cu privire la recunoaşterea drepturilor civile roboţilor AI. În urma expunerii modelelor propuse pentru incriminarea faptelor comise de roboţii AI se poate constată că nu ar putea fi tarifată juridic conduita roboţilor în fiecare caz, doar o analiză in concreto fiind în masură să determine contribuţia acestor roboţi la comiterea unei infracţiuni. Dezbaterea privind impactul noilor tehnologii asupra dreptului fiind una incipientă, dorim ca prezenta lucrare să invite la reflecţie şi să incite la dezbatere cu privire la necesitatea adaptării legislaţiei la noile realităţi tehnologice.


[1] G. Hallevy, The Criminal Liability of Artifical Inteligence Entities – from Science Fiction to Legal Social Control, Akron Intellectual Property Journal, vol. 4/2010, March 2016, p. 171.
[2] S. Knapton, Artificially intelligent ‘judge’ developed which can predict court verdicts with 79 per cent accuracy, disponibil la: http://www.telegraph.co.uk/science/2016/10/23/artifically-intelligentjudge-developed-which-can-predict-court.
[3] J. K. C. Kingston, Artificial Intelligence and Legal Liability,în Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV, p. 279 disponibil aici.
[4] G. Hallevy, op. cit., p. 179.
[5] Idem., p. 182.
[6] J. K. C. Kingston, op. cit..
[7] G. Hallevy,op. cit., p. 186.
[8]  Idem., p. 187.
[9] Freitas P.M., Andrade F., Novais P. (2014) Criminal Liability of Autonomous Agents: From the Unthinkable to the Plausible. In: Casanovas P., Pagallo U., Palmirani M., Sartor G. (eds) AI Approaches to the Complexity of Legal Systems. Lecture Notes in Computer Science, vol 8929. Springer, Berlin, Heidelberg.


Adrian Șandru
Avocat MAREȘ DANILESCU MAREȘ în asociere cu DAN LUPAȘCU


Aflaţi mai mult despre , , , ,
JURIDICE.ro utilizează şi recomandă SmartBill pentru facturare.

Lasă un răspuns

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Important
Descurajăm publicarea de comentarii defăimatoare. Vor fi validate doar comentariile publicate sub numele real care respectă Politica JURIDICE.ro şi Condiţiile de publicare.


.


Irina Maria STANCU


Oana ISPAS


Radu Slăvoiu


Livia Dianu-Buja


Ștefania Stoica


Luminița Malanciuc


Ioana-Olivia Voicu


Eduard Toma-Apostol


Florina-Lăcrămioara Drăgan