Secţiuni » Arii de practică » Business » Cyberlaw
Cyberlaw
CărţiProfesionişti
UNBR Caut avocat
UNBR Caut avocat
UNBR Caut avocat
AUDI Q3
AUDI Q3
AUDI Q3
AUDI Q3 SUV
AUDI Q3
AUDI Q8
AUDI Q3
AUDI Q3
AUDI Q3
Citeşte mai mult în legătură cu Articole, Cyberlaw, Next, RNSJ, SELECTED, Studii

Calificarea inteligenței artificiale drept Dual-Use Good (DUG). Implicații civile și militare

7 august 2023 | Cristina-Ioana CORLAN, Maria-Andreea MATEIA
Cristina-Ioana Corlan

Cristina-Ioana Corlan

Maria-Andreea Mateia

Maria-Andreea Mateia

Inteligența artificială este utilizată tot mai frecvent în viața de zi cu zi și, oricât pare că ne ușurează sarcinile, trebuie să ne întrebăm în ce măsură înțelegem riscurile pe care le implică dezvoltarea și perfectarea mașinăriilor inteligente, în special în ceea ce privește siguranța și stabilitatea umană.

I. Definiție și clasificare. Calificarea alfanumerică a inteligenței artificiale.

Dual-Use Goods pot fi definite asemenea unor bunuri care pot fi folosite într-o modalitate duală, civilă și militară. Sub egida generalei denumiri, „bunuri” pot fi adăugate atât produsele de tip software, hardware, cât și tehnologia, care fac obiectul prezentului articolului. Din punct de vedere practic, corecta identificare și clasificare a acestora are o contribuție majoră în edictarea normelor legale și a celor de punere în aplicare, astfel încât să poată fi utilizate la capacitate maximă și în deplină siguranță.

Identificarea bunurilor cu dublă utilizare (DUG) se dovedește dificilă, întrucât există anumite procese birocratice învechite în legătură cu depozitarea și transportul acestora. Practic, nu există nicio cerință ca documentele asociate cu o expediere să corespundă terminologiei utilizate de autoritățile de reglementare. Atunci când se aplică termeni de identificare a unui transport specific, o instituție financiară poate genera o multitudine de rezultate fals pozitive, însemnând faptul că la inspecția realizată pe baza acestor căutări se identifică produse făcând parte din transporturi de rutină care nu se încadrează în clasificarea bunurilor având dublă utilizare. Un exemplu general ar putea fi un bun care poate fi, pe de-o parte, componentă a unui rezultat ori tehnologie dual-use și un simplu produs, pe de altă parte. Cele mai cunoscute astfel de produse sunt cele care sunt utilizate pentru vederea pe timp de noapte, pentru detectarea imaginilor termice, țevile de aluminiu și unele tipuri de rulmenți cu bile.

Calificarea alfanumerică a DUG constă într-un cod format din cinci cifre, aferent tipului de produs, categoria din care face parte și regimul căruia îi este supus. În principal, lista de control are baza alcătuită pornind de la natura produsului și nivelul de risc pe care acesta îl prezintă pentru securitatea transfrontalieră. Privitor la cele menționate anterior, o serie de norme și reglementări expres prevăzute pentru utilizarea DUG au fost redactate de-a lungul timpului: Propunerea de Regulament a Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii[1] denumită, în continuare, the AI Act, își propune a stabili o clasificare, în funcție de nivelul de risc pe care inteligența artificială o prezintă pentru drepturile fundamentale ale oamenilor și pentru securitatea și integrarea sistemelor de date. În realizarea acestora, Parlamentul European și Consiliul au apelat la principiul subsidiarității, astfel, cum se dispută problema competenței neexclusive și datorită naturii variate a inteligenței artificiale. De aceea, obiectivele prezentei propuneri nu pot fi aduse la îndeplinire în mod complet și corect de către statele membre în mod particular, astfel sunt aduse în discuție chiar anumite norme contrare celor care ar fi fost menționate în avize, actelor delegate și chiar în recomandări. Astfel, urmare a propunerii menționate anterior, emiterea unui act având caracter legislativ este o necesitate. Un cadru european solid de reglementare pentru IA va asigura și condiții de concurență echitabilă, protejând, astfel, participanții la raporturile juridice, statele, prin efectul direct aplicat asupra cetățenilor acestora, resortisanților și al apatrizilor, cât și asupra rezidenților teritoriului Uniunii Europene. Doar o acțiune comună va putea proteja suveranitatea Uniunii Europene, mobilizând astfel competențele sale în a legifera, astfel reglementând pentru a modela norme europene la nivelul standardelor globale.

Servicii JURIDICE.ro

Arbitraj comercial

JURIDICE by Night

Evenimente juridice

Principiul proporționalității a stat, de altfel, la baza realizării Propunerii de Regulament a Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii, întrucât inteligența artificială este susceptibilă a prezenta un sporit grad de periculozitate și a știrbi, scris într-o modalitate literară, drepturile fundamentale ale membrilor Uniunii Europene, resortisanților și apatrizilor aflați pe teritoriul său. Pentru sistemele unde inteligența artificială este utilizată sunt necesare cerințe stricte privind calitatea datelor pentru a genera un răspuns de acuratețe ridicată, reglementarea legislativă, astfel încât acestea să poată fi utilizate la capacitate ideală, în scopul întrajutorării statelor, supraveghere umană, astfel încât să poată fi observată orice eroare produsă ca rezultat și testări regulate, desfășurate în deplinătate de siguranță, astfel încât să poată fi înregistrat progresul și preîntâmpinat eșecul.

Figura nr. 1

Clasificarea sistemelor care utilizează IA este desfășurată în patru categorii, alături de care vor fi menționate și scurte exemple pentru a fi asimilată mai ușor diferența dintre acestea, astfel: risc scăzut, pentru sistemele de clasificare a datelor sau asistență medicală, risc limitat, asistența virtuală în realizarea activităților bancare online sau în detectarea fraudelor, risc semnificativ, în recunoașterea facială sau identificarea datelor biometrice și risc ridicat, aplicabile sistemelor de supraveghere în masă sau autovehiculele autonome. Finalmente, Propunerea de Regulament a Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii prevede o serie de cazuri în care IA este interzisă, astfel, în desfășurarea transportului public, cât și în domeniul medical sensibil, cel operator.

Produsele DUG se află sub regimurile multilaterale de control al exporturilor cu dublă utilizare, în conformitate cu Aranjamentul de la Wassenaar (H.G. Nr. 1607/2009). De asemenea, Organizația Națiunilor Unite a solicitat statelor membre să controleze exportul de mărfuri ce pot dăuna umanității și păcii globale. Părțile care doresc să comercializeze internațional bunuri cu dublă utilizare trebuie să obțină să îndeplinească anumite condiții specifice pentru a putea obține licența de export.

II. Legislația europeană unde se identifică. Importanța contribuției inteligenței artificiale.

La nivelul Uniunii Europene, exportul, tranzitul, intermedierea și asistența tehnică a produselor sunt controlate, astfel încât acestea să poată fi în deplinul acord cu pacea și securitatea internațională pentru a putea preveni proliferarea armelor de distrugere în masă (WMD). O serie de reglementări legale extrem de importante referitor la bunurile cu dublă utilizare (DUG) se regăsesc în: Rezoluția Nr. 1540 a Consiliului de Securitate al Organizației Națiunilor Unite, Tratatul de Neprofilare Nucleară, Convenția privind Armele Chimice și cea privind Armele Biologice, etc.

Inteligența artificială (IA) este o ramură extrem de amplă a informaticii prin intermediul căreia se construiesc mașini virtuale capabile să îndeplinească sarcini care necesită perspicacitatea și capacitatea inteligenței umane. Concret, acestea simulează procesele inteligenței umane și le replică, acestea fiind stocate în sisteme informatice speciale. Aplicațiile specifice IA includ procesarea limbajului și vizualizarea artificială (machine vision) iar, pentru a putea fi puse în funcțiune, necesită o bază de hardware și de software specializate pentru pentru scrierea și formarea algoritmilor de învățare automată. Din fraza anterioară, important de înțeles este faptul că nu există niciun limbaj de programare care să fie sinonim cu IA, însă acestea sunt utilizate pentru a ajuta la crearea mașinilor virtuale.

III. Utilizarea inteligenței artificiale în domeniul civil.

Clasificarea sistemelor care utilizează IA este desfășurată în patru categorii, alături de care vor fi menționate și scurte exemple pentru a fi asimilată mai ușor diferența dintre acestea, astfel: risc scăzut, pentru sistemele de clasificare a datelor sau asistență medicală, risc limitat, asistența virtuală în realizarea activităților bancare online sau în detectarea fraudelor, risc semnificativ, în recunoașterea facială sau identificarea datelor biometrice și risc ridicat, aplicabile sistemelor de supraveghere în masă sau autovehiculele autonome. Finalmente, Propunerea de Regulament a Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii prevede o serie de cazuri în care IA este interzisă, astfel, în desfășurarea transportului public, cât și în domeniul medical sensibil, cel operator.

Produsele DUG se află sub regimurile multilaterale de control al exporturilor cu dublă utilizare, în conformitate cu Aranjamentul de la Wassenaar (H.G. Nr. 1607/2009). De asemenea, Organizația Națiunilor Unite a solicitat statelor membre să controleze exportul de mărfuri ce pot dăuna umanității și păcii globale. Părțile care doresc să comercializeze internațional bunuri cu dublă utilizare trebuie să obțină să îndeplinească anumite condiții specifice pentru a putea obține licența de export.

IV. Legislația europeană unde se identifică. Importanța contribuției inteligenței artificiale.

La nivelul Uniunii Europene, exportul, tranzitul, intermedierea și asistența tehnică a produselor sunt controlate, astfel încât acestea să poată fi în deplinul acord cu pacea și securitatea internațională pentru a putea preveni proliferarea armelor de distrugere în masă (WMD). O serie de reglementări legale extrem de importante referitor la bunurile cu dublă utilizare (DUG) se regăsesc în: Rezoluția Nr. 1540 a Consiliului de Securitate al Organizației Națiunilor Unite, Tratatul de Neprofilare Nucleară, Convenția privind Armele Chimice și cea privind Armele Biologice, etc.

Inteligența artificială (IA) este o ramură extrem de amplă a informaticii prin intermediul căreia se construiesc mașini virtuale capabile să îndeplinească sarcini care necesită perspicacitatea și capacitatea inteligenței umane. Concret, acestea simulează procesele inteligenței umane și le replică, acestea fiind stocate în sisteme informatice speciale. Aplicațiile specifice IA includ procesarea limbajului și vizualizarea artificială (machine vision) iar, pentru a putea fi puse în funcțiune, necesită o bază de hardware și de software specializate pentru pentru scrierea și formarea algoritmilor de învățare automată. Din fraza anterioară, important de înțeles este faptul că nu există niciun limbaj de programare care să fie sinonim cu IA, însă acestea sunt utilizate pentru a ajuta la crearea mașinilor virtuale.

V. Clasificarea propriu-zisă a bunurilor Dual-Use Goods.

Clasificarea DUG este realizată în funcție de natura produsului și de nivelul de sensibilitate și de risc pe care îl prezintă pentru securitatea națională și internațională. Aceasta se bazează pe o listă de control a bunurilor cu dublă utilizare, care este actualizată periodic de către organizațiile și acordurile internaționale relevante. Printre acestea sunt identificate Organizația pentru Cooperare și Dezvoltare Economică – OCDE, Reglementările pentru controlul exporturilor din Statele Unite – EAR, Reglementările privind exporturile din Uniunea Europeană – EU Dual-Use Regulation, precum și reglementările privind exporturile, aferente altor state. Așa cum a fost prezentat în figura Nr. 1, atașată în cuprinsul paginii a doua din articol, lista de control cuprinde: a. materiale, substanțe și produse chimice, așa cum reglementările internaționale le definesc. Importanța civilă a acestora este contribuția în producerea produselor farmaceutice, vestimentare, cosmetice, plastice care sunt de folos în desfășurarea activităților zilnice, îmbunătățirea soiurilor în domeniul agriculturii și nu numai; b. echipamente și tehnologie pentru dezvoltarea, producția sau utilizarea armelor de distrugere în masă.

În conformitate cu Strategia Uniunii Europene împotriva proliferării armelor de distrugere în masă[2], acestea nu pot fi create, dezvoltate, produse, achiziționate, înstrăinate, transportate, transferate ori utilizate în afara acordurilor expres acordate de statele semnatare ale Codului de la Haga împotriva proliferării rachetelor balistice din noiembrie 2002, Regimul de control al tehnologiilor rachetelor sau a statelor membre ale Organizația Tratatului Atlanticului de Nord din aprilie 1949[3]. În legătură cu această clasificare ne este greu, spre imposibil, a identifica o utilizare în domeniul civil, astfel ele a avea o contribuție la bunăstarea populației, indiferent de teritoriul unde acestea se află; c. tehnologie și software pentru criptare sau decodare. Acestea au o contribuție majoră în domeniul civil, întrucât, prin acestea există posibilitatea asigurării unei navigări sigure în domeniul online, prin acestea pot fi puse la dispoziție o serie de monede virtuale și totodată, acestea ajută la crearea, prin algoritmi specifici, a unor noi monede, care contribuie, pe termen lung, la digitalizarea metodelor de plată, reducerea emisiei excesive de monedă și crearea a noi metode de plată și întrajutorare comunitară, prin posibilitatea acordării de ajutoare economice de tipul împrumuturilor, tot prin intermediul acestora; d. echipamente și tehnologie pentru navigație, aeronautică și aerospațială. Contribuția pe care acestea o au este incontestabilă, întrucât ne referim la îmbunătățirea modalităților de de deplasare, prin indicarea unor rute alternative, accesul în timp real la drumuri în lucru, orientarea în spațiu și evitarea ambuteiajelor. De asemenea, alături de navigația terestră unde aceste tehnologii, utilizând inteligența artificială, își găsesc folosul, există și navigația maritimă, acolo unde calibrarea poziției navei, stabilirea distanței și a traseului în funcție de condițiile meteo, în adaosul detectării prin sonar a unor obstacole duc la aprecierea plusului valoare al IA din acest domeniu. Aeronautica și aerospațiala sunt ajutate, în adaos, de IA, prin eficacitatea pe care o dă geolocației prin satelit, identificarea condițiilor de mediu, stabilirea nivelului de poluare prezent în atmosferă, stabilirea traiectoriilor radar ale aeronavelor și nu în ultimul rând, observarea atentă asupra producerilor catastrofelor naturale și a hazardelor naturale, alături de monitorizarea efectelor care se produc după acestea; e. echipamente și tehnologie pentru monitorizarea și interceptarea comunicațiilor. Aici va fi avut în vedere faptul că acestea pot fi utilizate pentru identificarea persoanelor dispărute, totodată, eu o contribuție majoră în identificarea persoanelor care se sustrag de la cercetarea penală, spre exemplu; f. echipamente și tehnologie pentru detectarea, identificarea și monitorizarea materialelor radioactive și a altor materiale periculoase; g. echipamente și tehnologie pentru producția și utilizarea energiei nucleare. Ultimele două categorii au un element comun, astfel, producerea de energie electrică și a puterii calorice utilizată pentru încălzirea locuințelor, dependințelor etc. Considerăm că nici aici nu există contribuții majore ale IA.

Aceasta a fost principala modalitate de împărțire a bunurilor de tip Dual-Use, însemnând faptul că, în timp, lista poate varia în funcție de organizația sau acordul internațional care stabilește reglementările. Importul și/sau exportul acestor bunuri, care au o dublă utilizare, sunt strict supravegheate, astfel încât este principala modalitate de prevenire proliferarea armelor de distrugere în masă, contribuind astfel la protejarea securității naționale și internaționale.

VI. Utilizarea inteligenței artificiale în domeniul militar

1. Descriere generală. Interesul aferent inteligenței artificiale și motivele utilizării.

Interesul pentru tehnologia IA în cadrul domeniului militar a crescut dramatic în ultimul deceniu, ducând la investiții semnificative în această direcție. Interesul sporit poate fi atribuit mai multor factori, în special complexității tot mai mari a operațiunilor militare moderne, identificate, în mare măsură, în progrese semnificative în viteza și acuratețea senzorilor și armelor, împreună cu o creștere accelerată a cantității de informații critice care urmează să fie produse, analizate și asimilate. Contribuțiile potențiale ale inteligenței artificiale la apărarea națională acoperă întreaga activitate militară, de la întreținere, logistică și formarea personalului până la supraveghere, strategie defensivă și planificarea rutei și traiectoriei. Principalul avantaj al sistemelor de arme autonome este potențialul de a se angaja în conflicte armate, reducând în același timp riscul de vătămare fizică a soldaților.

În armată, robotica și IA pot gestiona și simula medii operaționale, pot detecta și răspunde la amenințări, pot procesa și simplifica informațiile colectate și pot oferi rapid analize tactice și strategice. Astfel că aceste două ramuri cu o prezență tot mai frecventă în viața noastră devin o miză prioritară pentru principalii actori statali, mai ales că roboții și IA sunt capabili să execute un număr din ce în ce mai mare de sarcini specifice în care depășesc performanțele umane. Nivelurile mai ridicate de autonomie vor permite roboticii și sistemelor autonome să efectueze misiuni de risc ridicat pentru o perioadă îndelungată de timp, să extindă capacitatea de a pătrunde pe teritoriul inamic și să mențină poziții stabile vremelnic. În acest timp, militarii se vor putea concentra asupra misiunilor pe care oamenii le pot executa cel mai bine.

2. Reglementările Uniunii Europene privind utilizarea inteligenței artificiale în domeniul militar.

Pagina web oficială a Parlamentului European[4] prezintă raportul prin care Comisia pentru Afaceri Juridice a adoptat, în anul 2020, orientări privind utilizarea inteligenței artificiale în scopuri militare și în sectoarele sănătății și justiției. Deputații europeni își reiterează apelul pentru un cadru juridic al Uniunii Europene cu definiții și principii etice. Aceste reguli trebuie să garanteze că demnitatea umană și drepturile omului sunt respectate și că sistemele IA sunt supuse unui control uman semnificativ, permițând oamenilor să le corecteze sau să le dezactiveze în cazul unui comportament neprevăzut. Prin urmare, oamenii ar trebui să fie identificabili și, în cele din urmă, responsabili. Deputații europeni au fost de acord că sistemele de arme autonome letale, prescurtate, urmând, LEGE, ar fi indicat ca putând fi utilizate doar ca ultima ratio și să fie considerate legale doar atunci când sunt supuse controlului uman, deoarece oamenii trebuie să fie cei care decid între viață și moarte.

Departamentul de studii parlamentare și politici ale Uniunii Europene, Direcția pentru Uniunea Europeană, a realizat, în vara anului 2022, un studiu intitulat “Reglementarea sistemelor de inteligență artificială la nivelul Uniunii Europene”[5]. Potrivit acestui studiu, în aprilie 2021, Comisia Europeană a propus primul cadru de reglementare orizontală a inteligenței artificiale, concentrându-se asupra unor utilizări specifice ale sistemelor de inteligență artificială și a riscurilor asociate. Abordarea Comisiei vizează o definiție neutră din punct de vedere tehnologic a sistemelor de inteligență artificială și o clasificare a acestora pe baza unor cerințe și obligații croite în funcție de riscurile pe care acestea le implică. Unele sisteme de IA prezintă riscuri inacceptabile și ar trebui interzise, altele prezintă un grad ridicat de risc și trebuie să îndeplinească o serie de cerințe pentru a fi introduse pe piață, iar altele sunt cu risc redus și trebuie supuse numai unor obligații ce țin de transparență. Sprijinind în mare parte propunerea Comisiei, părțile implicate și experții solicită o serie de modificări, inclusiv revizuirea definiției sistemelor de inteligență artificială, extinderea listei sistemelor de inteligență artificială interzise, consolidarea mecanismelor de aplicare a regulamentului și asigurarea unei supravegheri democratice adecvate a conceperii și aplicării reglementării UE privind inteligența artificială.

Abordarea Uniuni Europene vine în contextul în care aceasta este rămasă mult în urma Chinei și Statelor Unite, state care exploatează cantități mari de date și investesc semnificativ în inteligența artificială. Cu toate acestea, Uniunea dispune de o serie de avantaje, având o comunitate de cercetare în domeniul IA de nivel mondial, antreprenori inovatori și întreprinderi nou-înființate bazate pe descoperiri științifice, o industrie puternică, la care se adaugă o poziție de lider în sectoarele prelucrării, sănătății, transporturilor și tehnologiilor spațiale, toate bazându-se pe IA. Pentru a-și spori competitivitatea este necesar ca tehnologiile bazate pe IA să fie utilizate în întreaga economie, motiv pentru care se impun creșteri de investiții și facilitarea accesului tuturor utilizatorilor, în special a întreprinderilor mici și mijlocii, la cele mai recente soluții bazate pe IA. Cu toate acestea, inteligența artificială nu presupune doar oportunități, ci și riscuri, motiv pentru care Comisia Europeană a inițiat o primă propunere de regulament în materia sistemelor de IA, menită a introduce un set de norme armonizate care să stea la baza producerii, dezvoltării și utilizării anumitor sisteme de IA cu grad ridicat de risc. Aceasta, aflată încă în procedură legislativă, cel puțin până la finele lui 2022, instituie o serie de criterii și obligații cu scopul de a spori transparența și de a minimiza riscurile la adresa siguranței și drepturilor fundamentale înainte ca sistemele de IA să fie utilizate în cadrul UE.

Din analizele efectuate de statele membre, instituțiile Uniunii și organismele sale consultative au reieșit o serie de aspecte care rămân de clarificat în perspectiva adoptării propunerii de regulament. Acestea privesc însăși definiția „inteligenței artificiale”, întinderea obligațiilor furnizorilor (inclusiv a importatorilor) și utilizatorilor de sisteme de IA dar și chestiuni mai sensibile, care derivă din impactul noilor tehnologii asupra drepturilor fundamentale, cum ar fi utilizarea de IA pentru realizarea de punctaje sociale, pentru categorisirea persoanelor prin aprecierea rasei, grupului etnic, sexului sau vârstei ori pentru recunoașterea biometrică în spații publice.

3. Strategia de război a României.

Conceptul de IA se regăsește și în actuala Strategie Militară a României[8], fiind utilizat pentru protecția multidimensională a forței. Aceasta are drept scop supraviețuirea forței, adică “asigurarea protecției pe timpul primului val de lovituri de precizie al adversarului, executat cu rachetele și cu aviația, precum și primul val de atacuri cibernetice” și asigurarea libertății de acțiune prin “mobilitate, camuflaj și inducerea în eroare, bruiaj electronic, efectuare rapidă a reparațiilor și atenuare a efectelor distrugerilor provocate de adversar.”

În cazul atacurilor cibernetice, inteligența artificială va juca un rol esențial pentru asigurarea apărării țării. Astfel, în eventualitatea apariției unui astfel de atac, “rolul principal îl vor avea capabilitățile pentru operații în spațiul cibernetic, agregate într-un sistem de big data, inteligență artificială, internet al lucrurilor (Internet of Things – IoT), machine learning și tehnologie cuantică.”

În capitolul al III-lea al aceleiași strategii, intitulat Capabilitățile de apărare și prioritățile dezvoltării, Ministerul Apărării Naționale explică necesitatea digitalizării abilităților militare prin accelerarea dezvoltării tehnologice a societății românești, astfel încât să se creeze o superioritate informațională și decizională pentru a produce consecințele anticipate. În continuare, este explicat modul de funcționare al programului de digitalizarea care “vizează concomitent operaționalizarea spațiului cibernetic ca domeniu operațional centrat pe funcțiile C4ISR, dar și facilitarea/automatizarea activităților curente de planificare și sprijin, în care se va constitui principalul ecosistem de procesare și analiză operațională a datelor. Acesta va permite definirea și experimentarea conceptelor de implementare a tehnologiilor emergente (EDT), bazate pe Big Data, Internet of BattleThings (IoBT), Cloud și EdgeComputing sau a soluțiilor bazate intensiv pe software și aplicații din domeniul Inteligenței Artificiale și Quantum Computing cu impact revoluționar, de tip Game Changer (e.g. 5G, VR/AR, blockchain), asigurând și păstrând totodată nivelul adecvat de suveranitate digitală al MApN. “

Pentru ca acest demers să își atingă obiectivele, se precizează că este necesar atât un cadrul legislativ care să asigure o colaborare eficientă între sectorul privat și mediul academic, cât și o participare la cadrul de cooperare internațional “pentru asigurarea interoperabilității într-un mediu multinațional federalizat (de ex. FMN)”.

Această strategie, având ca orizont de timp perioada 2021-2024, include printre obiectivele sale și digitalizarea, autoritățile concentrându-se din ce în ce mai mult pe includerea noilor tehnologii în planurile lor de luptă și investind în dezvoltarea domeniului inteligenței artificiale.

4. Cum ar arăta un război inteligent? Tipuri existente de arme care ar putea fi folosite și capacitățile anticipate privind crearea unor arme.

De la Primul Război Mondial și până în prezent, marile puteri ale lumii și-au dezvoltat un adevărat arsenal de arme care să le asigure câștigul într-o posibilă viitoare bătălie pentru putere. De mai bine de un secol, evoluția armelor create pentru a-i ajuta pe soldați pe câmpul de luptă a cunoscut un adevărat avânt de la puști, tunuri și mitraliere, până la gaze otrăvitoare, tancuri, avioane și submarine. Recent, această evoluție a cunoscut un nou salt prin introducerea IA în strategia de luptă a tot mai multor state. În domeniul militar, IA poate fi utilizată pentru strategii de apărare și atac în hacking și phishing sau pentru a viza sisteme vitale în războiul cibernetic. Avantajul principal al sistemelor de arme autonome este potențialul de a se implica într-un conflict armat cu un risc redus de vătămare fizică a soldaților.

Câteva dintre invențiile care au modificat radical viziunea omenirii asupra războiului sunt: vehiculele terestre autonome, asistentul pilotului și managerul de luptă navală. Aceste “arme ale viitorului” au fost analizate de dr. Aziz Akgül în lucrarea sa “Artificial intelligence: military applications[10]. Membrul Academiei Militare din Turcia considera că dezvoltarea vehiculelor autonome, cu participarea activă a armatei, pune accent pe tehnologiile de viziune computerizată și de înțelegere a imaginii. Astfel, adăugarea de tehnologii avansate de rezonare IA poate permite vehiculului nu numai să detecteze și să reacționeze, ci și să interpreteze mediul său și apoi să își adapteze strategia misiunii în mod corespunzător. În cele din urmă, vehiculul trebuie să fie capabil nu numai să detecteze un obstacol în calea sa, ci și să-i determine natura și să reacționeze în consecință. Asistenții pilotului sunt direcționați să ofere pilotului aeronavei de luptă cu un singur loc sprijinul și expertiza unui „echipă de zbor fantomă”. Proiectul își propune să ofere expertiză logică în domenii specificate prin conceptul unui cockpit intergate. Un accent special este pus pe interfața pilot-vehicul, care va include tehnici avansate de control, afișare și automatizare care utilizează recunoașterea vorbirii și sinteza vocii.

Autorul Marius Bâtcă a publicat în urmă cu doi ani un articol intitulat “Roboții de luptă și inteligența artificială, noile provocări ale mediului militar”[11] pe Trustul de presă al Ministerului Apărării Naționale în care prezintă utilizarea IA în domeniul militar la nivelul Alianței Nord-Atlantice și al UE. Autorul susține că “Statele Unite ale Americii, China și, în mai mică măsură, Rusia, conduc detașat în cursa privind armele viitorului […] China, Germania, Israel și Statele Unite au folosit IA pentru a crea vizualizări în timp real ale câmpurilor de luptă active.”Autorul oferă ca exemplu de armă operată prin sisteme IA aeronavele folosite de U.S Air Force și U.S. Navy, aeronave semiautonome, clandestine, fără echipaj, capabile să efectueze atacuri militare și de supraveghere.

O întrebare ce apare în contextul unui “război inteligent” este: “Vor putea fi soldații înlocuiți cu roboți?”. Se pare că oficialii marilor puteri ale lumii au făcut deja demersuri în această direcție. Potrivit publicației ”Ziarul financiar[12], “Pentagonul investeşte aproximativ un miliard de dolari în următorii ani pentru a dezvolta roboţi pe care să îi introducă pe câmpul de luptă alături de soldaţi, potrivit Business Insider. Armata americanilor utilizează deja o serie de roboţi pentru activităţi precum dezamorsarea bombelor şi pentru patrulare, însă noii roboţi vor putea îndeplini sarcini mai complexe, precum misiuni de recunoaştere detaliată şi detectarea armelor chimice.”

În condițiile dezvoltării permanente a acestor tehnologii, ne putem aștepta ca, în contextul declanșării unui eventualul război în viitor, acesta să se desfășoare prin simpla operare în sistem remote a mașinăriilor care funcționează pe baza IA, sau chiar a roboților autonomi, soldații trecând de la folosirea puștilor pe câmpul de luptă la manevrarea joystick-urilor în spatele monitoarelor.

VII. Beneficiile și riscurile asimilate utilizării inteligenței artificiale.

Dezvoltarea rapidă a sistemelor IA și îmbogățirea cunoștințelor referitoare la modul de proiectare a acestora pot conduce la apariția unor aplicații cu dublă utilizare: pe de o parte, în scopuri civile, pe de altă parte, în scopuri militare și, implicit, în scopuri benefice ori dăunătoare. De la sisteme de arme autonome și tehnologia de recunoaștere facială, la algoritmi de luare a deciziilor, fiecare aplicație a IA aduce cu ea atât avantaje, cât și dezavantaje. Această dublă natură a tehnologiei IA aduce riscuri enorme de securitate nu numai persoanelor și entităților din întreaga lumea, dar și viitorului umanității. Asemenea inteligenței umane, care poate fi îndreptată către inovație și progres, dar și către distrugere, orice algoritm care poate fi Beneficiile și riscurile asimilate utilizării inteligenței artificiale.

Dezvoltarea rapidă a sistemelor IA și îmbogățirea cunoștințelor referitoare la modul de proiectare a acestora pot conduce la apariția unor aplicații cu dublă utilizare: pe de o parte, în scopuri civile, pe de altă parte, în scopuri militare și, implicit, în scopuri benefice ori dăunătoare. De la sisteme de arme autonome și tehnologia de recunoaștere facială, la algoritmi de luare a deciziilor, fiecare aplicație a IA aduce cu ea atât avantaje, cât și dezavantaje. Această dublă natură a tehnologiei IA aduce riscuri enorme de securitate nu numai persoanelor și entităților din întreaga lumea, dar și viitorului umanității. Asemenea inteligenței umane, care poate fi îndreptată către inovație și progres, dar și către distrugere, orice algoritm care poate fi utilizat pentru efectuarea unor operațiuni banale (de exemplu, operațiunile economice), ar putea fi exploatat cu scopul producerii de arme de distrugere în masă. Din păcate, unele dintre sarcinile care ar putea fi îndeplinite mult mai rapid și ușor prin automatizare sunt ele însele cu dublă utilizare (de exemplu, o dronă-curier poate fi utilizată la fel de ușor pentru livrarea de materiale explozive cum este utilizată pentru livrarea de mâncare).

În februarie 2018, a fost publicat raportul intitulat The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation[13], creat de către autori din cadrul Universităților Cambridge, Oxford, Yale, Stanford, precum și al altor instituții de prestigiu, cercetează peisajul potențialelor amenințări de securitate cauzate de utilizările rău intenționate ale inteligenței artificiale și propune modalități de a prognoza, preveni și atenua aceste amenințări. Analiza realizată de către autori se bazează pe 3 domenii de securitate: digitală (cibernetică), fizică și politică, iar pe această împărțire tripartită ne vom concentra și noi în continuare.

Securitatea digitală (cibernetică) este practica de a proteja informațiile, dispozitivele și activele digitale. Între acestea se numără informațiile personale, conturile, fișierele, fotografiile și chiar banii[14]. Utilizarea IA pentru automatizarea sarcinilor implicate în realizarea atacurilor cibernetice va ușura semnificativ munca hackerilor. Astfel, informațiile pe care “victimele” le-au salvat în mediul online ar putea fi folosite de către hackeri pentru a genera automat conversații, conturi pe platformele de socializare, conturi bancare, putând ajunge chiar și până la a impersona “victima” într-un video call. Infractorii cibernetici folosesc tehnici IA pentru a automatiza diverse sarcini care alcătuiesc planul lor de atac, cum ar fi procesarea plăților sau dialogul cu victimele șantajului realizat cu scopul obținerii unei răscumpărări (ransomware). Atacurile de “otrăvire” a datelor (data poisoning) implică modificarea datelor de instruire a machine learning prin infiltrarea în baza de date și introducerea de informații incorecte sau înșelătoare. Pe măsură ce algoritmul învață din aceste date corupte, va trage concluzii neintenționate și chiar dăunătoare.[15]

Securitatea fizică reprezintă starea de fapt în care riscul determinat de factorii de ameninţare şi vulnerabilităţile care pot pune în pericol viaţa, integritatea corporală sau libertatea persoanei ori pot aduce prejudicii valorilor deţinute de unităţi se situează la un nivel acceptabil[16]. Utilizarea IA pentru a automatiza sarcinile implicate în efectuarea de atacuri cu drone și alte sisteme fizice (de exemplu, prin implementarea sistemelor de arme autonome) poate extinde amenințările asociate cu aceste atacuri. Unele produse bazate pe tehnologiile IA sunt utilizate în moduri dăunătoare și diferite de cele pentru care au fost create, cum ar fi utilizarea dronelor sau a vehiculelor autonome pentru a livra explozibili și a provoca accidente. Automatizarea unor abilități de înaltă îndemânare prin IA, precum puștile cu auto-țintire, fac ca anumite tipuri de atacuri să necesite o calificare tot mai redusă. Astfel, devenind ușor manevrabile pentru orice individ, aceste arme cresc semnificativ riscul producerii unor pagube uriașe, atât umane, cât și materiale. Răspândirea sistemelor autonome robotizate ușurează monitorizarea în timp real a unor zone întinse, facilitând executarea unor atacuri rapide și coordonate.

Securitatea politică se referă la ameninţările în adresa legitimităţii sau a recunoaşterii, fie a unităţilor politice, fie a trăsăturilor fundamentale (structura politică, instituţiile statului etc.). Puterile de supraveghere de stat ale națiunilor sunt extinse prin automatizarea procesării imaginilor și audio, permițând colectarea, procesarea și exploatarea informațiilor de informații la scară masivă în nenumărate scopuri. Analiza rețelelor sociale bazată pe inteligență artificială este folosită pentru a identifica factorii de influență cheie, care pot fi apoi abordați cu oferte sau vizați cu dezinformare. Atacurile de generare de informații la scară largă, conduse de roboți, sunt utilizate pentru a umple canalele de informații cu false sau care distrag atenția, ceea ce face mai dificilă obținerea de informații reale. Unul dintre factorii care contribuie la apariția problemelor de securitate este faptul că accesul la date a fost simplificat considerabil, fiind astăzi posibil pentru orice individ sau entitate, indiferent de educație, statut sau intenții, să folosească tehnicile de “machine learning” necesare pentru crearea IA ce îl va ajuta să își atingă obiectivele. Astfel, oricine poate accesa date de oriunde, putând cauza accidental sau chiar intenționat haos și amenințări la adresa umanitate.

Publicația Etica Inteligenţei Artificiale. Cât de inteligent putem utiliza IA?[17], creată de Comisia Națională a României pentru UNESCO recomandă un sistem de principii ce ar trebui respectate întrucât utilizarea IA trebuie să fie proporţională pentru a atinge un anumit scop legitim și nu trebuie să încalce drepturile omului.

Cele 10 principii pentru realizarea IA etice, așa cum sunt enunțate în publicația menționată, sunt:

• Proporţionalitate și cerinţa de a nu face rău – utilizarea IA trebuie să fie proporţională pentru a atinge un anumit scop legitim și nu trebuie să încalce drepturile omului;

• Siguranţă și securitate – IA trebuie să nu provoace daune umane sau materiale și să nu prezinte vulnerabilităţi la atacuri cibernetice;

• Corectitudine și nediscriminare – beneficiile IA trebuie să fie accesibile tuturor, iar aplicaţiile de IA trebuie să evite discriminarea și părtinirea;

• Sustenabilitate – necesitatea de a evalua în permanenţă impactul uman, social, cultural, economic și de mediu al tehnologiilor de IA;

• Dreptul la confidenţialitate și protecţia datelor – dezvoltarea unor cadre adecvate pentru protecţia datelor personale;

• Supravegherea și determinarea umană – un sistem de IA nu poate înlocui niciodată responsabilitatea umană finală;

• Transparenţă și explicabilitate – capacitatea unui sistem de IA de a explica procesul de decizie;

• Responsabilitate – respectarea drepturilor omului și a libertăţilor fundamentale, protecţia mediului și trasabilitatea sistemelor de IA;

• Conștientizare și educare – creșterea gradului de conștientizare și înţelegere a tehnologiilor de IA de către public, abordarea privind datele deschise și educaţia în IA accesibilă tuturor;

• Guvernare adaptativă și colaborare – participare deschisă, reglementări guvernamentale și internaţionale atât pentru IA, cât și pentru utilizarea datelor.

În secțiunea “Etica utilizării Inteligenţei Artificiale în aplicaţii militare” a aceleiași publicații, scrisă de Dr. Cristian Ducu de la Centre for Advanced Research in Management and Applied Ethics, autorul susține că:

Dezbaterea eticii IA nu se duce întotdeauna în sfera academică, unde argumentele par a fi cele mai valoroase, ci și în sfera politică, juridică și militară. Dilema majoră în această dezbatere pleacă la argumentul folosit de unii politicieni și specialiști din zona militară, conform căruia nu ar trebui să existe (prea multe) restricţii etice în inovarea și dezvoltarea aplicaţiilor militare bazate pe IA (MinIA). Restricţiile de natură etică ar fi un dezavantaj major în faţa altor ţări care investesc în zona aceasta și nu ţin seama de aceleași standarde morale, spun ei […].

Lăsând deoparte chestiunea greutăţii argumentelor etice comparativ cu cele referitoare la securitate, există alte tehnologii militare care au la bază IA și care pun probleme etice și juridice serioase. De exemplu, există o amplă discuţie la nivel internaţional privind folosirea așa-numitelor „arme autonome” – echipamente militare care beneficiază de o minimă coordonare din partea unui operator uman. Imaginaţi-vă un vehicul aerian (UAV) comandat de algoritmi, care urmărește de la înălţime mare un autobuz școlar pe un drum de pământ dintr-o regiune controlată de teroriști. Respectivul UAV are capacitatea de a obţine imagini de înaltă rezoluţie și pe baza lor să identifice ţinte, pe care ulterior să le angajeze. În acest caz, acel UAV, în lipsa unei conexiuni cu operatorul uman (din cauza faptului că lipsește acoperirea satelitară pentru comunicaţii), decide că în autobuz se află o ţintă extrem de importantă – un lider terorist – și decide să atace cu o rachetă autobuzul. O primă întrebare de natură etică, în acest caz, ţine de responsabilitate: cine poartă responsabilitatea, și, implicit, răspunderea, pentru o decizie „de viaţă și de moarte” luată de un algoritm? Multe persoane publice au făcut un apel, încă din 2012, ca așa-numiţii „roboţi ucigași” (killer robots) să fie interziși. În situaţia descrisă anterior, acea dezumanizare a deciziei cu privire la cine trăiește și cine moare a fost ușor combătută de oficiali militari care au admis, și chiar au insistat, asupra nevoii de control uman (human governance of lethal decision-making). Dar, adeseori, realitatea din teren este diferită.

O a doua întrebare de natură etică este legată de principiul proporţionalităţii: este acea decizie de a ataca o ţintă un curs al acţiunii dezirabil din punct de vedere al victimelor și distrugerilor estimate, comparativ cu ameninţarea estimată? Dacă, de exemplu, în autobuzul școlar s-ar afla, pe lângă ţinta urmărită, și cinci elevi, oare ar putea deveni decizia respectivă una moralmente justificabilă? Gândiţi-vă la alt scenariu: un roi de 12 drone cu încărcătură activă (weaponized drones) au identificat mai multe ţinte (teroriști) întro clădire folosită drept școală. Teroriștii se întâlnesc într-o școală tocmai fiindcă ei mizează pe faptul că armata unui stat occidental nu va lua decizii care să conducă la victime în rândul copiilor. Doar că, de data aceasta, roiul de drone operează autonom și trebuie să decidă dacă se detonează în jurul clădirii respective. Ceea ce mai știm din comunicaţiile interceptate este că acea întâlnire are ca scop pornirea unor atacuri coordonate împotriva unor obiective civile din mai multe ţări occidentale. Cum ar trebui să cântărească din punct de vedere etic acel algoritm care coordonează activitatea roiului de drone?

Astfel de decizii etice sunt extrem de dificil de luat de IA în formele sale actuale, fără input-ul de la operatori umani. Foarte probabil că odată cu evoluţia calculatoarelor cuantice, IA va depăși problema „dimensionalităţii” (capacitatea de a trata seturi de date comprehensive și de a lua decizii rapide pe baza informaţiilor „învăţate” sau „aflate”) și, implicit, va putea să treacă la un nivel de decizie mult mai complex, care să conţină și o puternică latură morală.

Întreaga publicație, având titlu de recomandare, nu poate impune respectarea principiilor și standardelor de etică menționate, iar lipsa unei reglementări clare conduce la și mai multe întrebări.

A. Beneficiile IA sunt incontestabile, fiind recunoscute și de către Parlamentul European, care analizează, în articolul “Ce este inteligența artificială și cum este utilizată?”[18], publicat pe site-ul oficial al instituției, exemple de utilizare a inteligenței artificiale. Funcțiile IA, expuse în articolul menționat, variază de la cumpărături online și traducere automată, până la sănătate alimentație și agricultură. Astfel, IA este utilizată de către comercianți pentru a oferi cumpărătorilor recomandări personalizate, pe baza căutărilor sau achizițiilor lor anterioare, având o importanță enormă în economie, pentru optimizarea produselor, planificarea inventarelor, logistică etc. Motoarele de căutare învață din volumul imens de date introduse de utilizatori pentru a oferi rezultate pertinente. Telefoanele inteligente utilizează IA pentru a oferi produse cât mai adaptate și mai personalizate.

Sistemele IA ajută la identificarea și combaterea atacurilor cibernetice și a altor amenințări cibernetice bazate pe inputul continuu de date, recunoscând tiparele și trasând atacurile. Anumite aplicații de IA pot detecta știrile false și dezinformarea prin extragerea informațiilor false postate pe platformele de socializare, căutând cuvinte senzaționale sau alarmante și identificând sursele online considerate oficiale.

În medicină, IA poate ajuta la recunoașterea infecțiilor prin tomografia computerizată a plămânilor. De asemenea, a fost utilizată la colectarea datelor pentru a urmări răspândirea bolii. Cercetătorii studiază cum poate fi utilizată IA pentru a analiza cantități mari de date medicale și a găsi modele care ar putea conduce la noi descoperiri în medicină și la îmbunătățirea diagnosticării pacienților. IA ar putea îmbunătăți siguranța, viteza și eficiența traficului feroviar prin reducerea la minimum a frecării roților, maximizarea vitezei și permiterea conducerii autonome. IA poate ajuta producătorii europeni să devină mai eficienți și să readucă fabricile în Europa, prin utilizarea roboților în fabricație, optimizarea vânzărilor și prin anticiparea din timp a întreținerii sau a întreruperilor în fabricile inteligente.

Inteligența artificială poate fi utilizată pentru a construi unui sistem alimentar sustenabil în UE: IA poate asigura o alimentație mai sănătoasă prin reducerea la minimum a utilizării îngrășămintelor, a pesticidelor și irigațiilor, precum și prin susținerea productivității și reducerea impactului asupra mediului. Roboții ar putea elimina plantele dăunătoare, reducând astfel utilizarea erbicidelor, de exemplu. Numeroase ferme din Europa utilizează deja IA pentru a monitoriza mișcarea, temperatura și consumul de hrană pentru animalele lor. Utilizând o gamă largă de date și recunoscând tiparele, IA ar putea oferi avertizări timpurii privind dezastrele naturale, permițând o pregătire eficientă și atenuarea consecințelor.

Pe site-ul oficial al Comisiei Europene se poate găsi un articol intitulat ”Excelență și încredere în inteligența artificială”[19] care analizează riscurile utilizării inteligenței artificiale.

Comisia propune noi norme pentru a se asigura că sistemele de IA utilizate în UE sunt sigure, transparente, etice, imparțiale și se află sub control uman. Aceste sisteme sunt clasificate în funcție de cele 4 categorii de risc: risc inacceptabil, risc ridicat, risc limitat și risc minim.

Este considerat a avea risc inacceptabil orice aspect considerat a fi o amenințare clară la adresa cetățenilor UE va fi interzis: de la sistemele de credite sociale utilizate de guverne până la jucăriile cu asistență vocală care încurajează copiii să adopte comportamente periculoase.

Risc ridicat prezintă infrastructurile critice, care ar putea pune în pericol viața și sănătatea cetățenilor; formarea educațională sau profesională, care determina accesul la educație și traiectoria profesională a unei persoane; componentele de siguranță ale produselor; ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente; de aplicare a legii care ar putea interfera cu drepturile fundamentale ale oamenilor; gestionarea migrației și azilului și controlul frontierelor și administrarea justiției și procesele democratice. Toate aceste aspecte vor fi evaluate cu atenție înainte de a fi introduse pe piață și ulterior pe parcursul întregii vieți.

Risc limitat au sistemele de IA, cum ar fi cele de tip chatbot, ce fac obiectul unor obligații minime de transparență menite să le permită celor care interacționează cu un astfel de conținut să ia decizii în cunoștință de cauză. Utilizatorul poate hotărî apoi dacă va continua sau nu să utilizeze aplicația. Acesta este prezent la sistemele de IA, cum ar fi cele de tip chatbot, fac obiectul unor obligații minime de transparență menite să le permită celor care interacționează cu un astfel de conținut să ia decizii în cunoștință de cauză. Utilizatorul poate hotărî apoi dacă va continua sau nu să utilizeze aplicația.

Utilizarea gratuită a unor aplicații precum jocurile video sau filtrele spam bazate pe IA prezintă un risc minim. Majoritatea sistemelor de IA se încadrează în această categorie. Prin urmare, noile norme nu li se aplică, deoarece în cazul acestor sisteme riscul la adresa drepturilor sau siguranței cetățenilor este fie minim, fie inexistent.

B. Răspunderea. Din punct de vedere juridic, IA ridică multe semne de întrebare pe tărâmul răspunderii civile și chiar penale. Dacă susținem faptul că o mașinărie operată prin sisteme de IA are o “gândire” autonomă, fiind capabilă să acționeze fără intervenție umană, aceasta înseamnă că producătorul va fi responsabil pentru eventualele prejudicii cauzate de invenția lui, însă reglementări prea stricte în acest domeniu ar putea fi un obstacol în calea progresului și a inovației. Pe de altă parte, dacă producătorul nu este tras la răspundere, motivația acestuia în a crea un bun sau un serviciu care să ofere garanții de siguranță și calitate s-ar diminua considerabil. Poate fi proprietarul dispozitivului operat prin IA ținut responsabil? Dar programatorii și inginerii care au contribuit la crearea acestuia?

Reprezentând o problemă “modernă”, vor fi necesare soluții “moderne”. Instituirea unui cadru legislativ clar și coerent este importantă pentru adaptarea la noile tehnologii și pentru asigurarea securității juridice a întreprinderilor și a protecției eficiente a consumatorilor. Având în vedere că normele actuale în acest domeniu au aproape 40 de ani, UE a considerat necesar să intervină pentru a rezolva situația de incertitudine generată de răspunderea pentru pagubele create de IA.

În aprilie 2021, Comisia a adoptat o propunere de Lege privind inteligența artificială[20], care stabilește norme orizontale privind IA, punând accentul pe prevenirea daunelor. Legea privind IA este o inițiativă emblematică pentru asigurarea siguranței și a fiabilității sistemelor de IA cu grad ridicat de risc care sunt dezvoltate și utilizate în UE. Aceasta va garanta siguranța și drepturile fundamentale ale persoanelor și ale întreprinderilor, consolidând în același timp adoptarea IA, investițiile și inovarea. Pachetul de astăzi privind răspunderea pentru IA completează Legea privind IA prin facilitarea acțiunilor în răspundere civilă bazată pe culpă, stabilind un nou standard de încredere în ceea ce privește măsurile reparatorii.

În septembrie 2022, a fost adoptată Propunerea de directivă a Parlamentului European și a Consiliului privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială (Directiva privind răspunderea în materie de IA)[21]. Aceasta adaptează normele de drept privat la noile provocări aduse de IA. Alături de revizuirea Directivei privind răspunderea pentru produse, aceste inițiative completează eforturile Comisiei pentru a asigura faptul că normele privind răspunderea sunt adecvate pentru tranziția verde și cea digitală. Referitor la propunerea de directivă menționată, a fost publicat pe site-ul oficial al Comisiei Europene un comunicat de presă[22] în care au fost analizați pilonii pe care se sprijină inițiativa legislativă. Astfel, Comisia propune modernizarea normelor existente privind răspunderea obiectivă a producătorilor pentru produsele cu defecte, astfel încât întreprinderile să poată investi în produse noi și inovatoare, și vor garanta că victimele pot obține despăgubiri echitabile atunci când produsele defecte cauzează prejudicii. De asemenea, Comisia propune pentru prima dată o armonizare specifică a normelor naționale privind răspunderea pentru inteligența artificială, astfel încât victimele prejudiciilor legate de IA să poată obține mai ușor despăgubiri. Astfel, victimele unor prejudicii provocate de produse sau servicii IA beneficiază de aceleași standarde de protecție ca în cazul în care prejudiciile ar fi fost provocate în orice alte circumstanțe.

Directiva privind răspunderea pentru IA are obiectivul de a stabili norme uniforme pentru accesul la informații și pentru reducerea sarcinii probei în ceea ce privește daunele cauzate de sistemele de IA, de a stabili o protecție mai largă pentru victime (fie acestea persoane fizice sau întreprinderi) și de a favoriza sectorul IA prin îmbunătățirea garanțiilor. Directiva va armoniza anumite norme privind cererile de despăgubiri care nu intră în domeniul de aplicare al Directivei privind răspunderea pentru produse, în cazurile în care daunele sunt cauzate de un comportament incorect. Aceasta acoperă, printre altele, încălcarea vieții private sau daunele cauzate de probleme de siguranță. Noile norme vor facilita, de exemplu, obținerea de despăgubiri în cazul în care o persoană a fost discriminată în cadrul unui proces de recrutare care utilizează tehnologii IA. Directiva simplifică procesul juridic pentru victime în ceea ce privește dovedirea faptului că vina cuiva a cauzat prejudicii, prin introducerea a două caracteristici principale. În primul rând, în circumstanțele în care s-a stabilit o culpă relevantă și este probabil în mod rezonabil să existe o legătură de cauzalitate cu performanțele IA, așa-numita „prezumție de cauzalitate” va remedia dificultățile întâmpinate de victime în legătură cu necesitatea de a explica în detaliu modul în care prejudiciul a fost cauzat de o anumită culpă sau omisiune, care poate fi deosebit de greu de îndeplinit atunci când se încearcă înțelegerea sistemelor de IA complexe și orientarea în cadrul acestora. În al doilea rând, victimele vor dispune de mai multe instrumente pentru a solicita reparație juridică, datorită introducerii dreptului de acces la probe din partea întreprinderilor și a furnizorilor, în cazurile în care este implicată IA cu grad ridicat de risc.

Noile norme asigură echilibrul între protejarea consumatorilor și încurajarea inovării, eliminând bariere suplimentare din calea accesului victimelor la despăgubiri și stabilind în același timp garanții pentru sectorul IA, de exemplu prin introducerea dreptului de a contesta cererile de despăgubiri întemeiate pe prezumția de cauzalitate.

VIII. Concluzii

Inteligența artificială, așa cum a fost definită într-o multitudine de tratate și regulamente, astfel cum au fost menționate în prezentul articol, este un concept nou care cuprinde elemente semnificativ mai importante decât ceea ce în prezent întrupează. Aceasta este baza de pornire pentru un major curent al dezvoltării implicite și tehnologizării bazelor de date, în principal, însă nu numai.

Calificarea alfanumerică a bunului catalogat drept Dual-Use Good este una extrem de tenace din partea legiuitorilor, la nivel european, Propunerea de Regulament a Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii prezentând interesul legal și deschiderea către o nouă eră unde procesul de actualizare a datelor privind mediul înconjurător este unul alarmant de rapid. Sistemul de sănătate, educația, domeniul afacerilor și industriei, transporturile, domeniul militar și de apărare al teritoriilor, mediul înconjurător și aria de divertisment sunt principalele zone unde IA și-a găsit aplicabilitatea.

În contextul actual, având în vedere avântul aparent necontrolat al tehnologiilor inteligente, oare putem afirma că inteligența artificială este rezolvarea problemelor noastre generate de traiul într-o societate modernă sau, dimpotrivă, această dezvoltare va conduce la probleme mult mai grave pentru umanitate? Finalmente, inteligența artificială trebuie văzută ca o deschidere către un viitor mai bun și ca o armă, deopotrivă, astfel cum inteligența este dezvoltată și realizată de creierul uman, totodată, trebuie verificată tot de acesta.


[1] A se vedea Propunere de REGULAMENT AL PARLAMENTULUI EUROPEAN ȘI AL CONSILIULUI DE STABILIRE A UNOR NORME ARMONIZATE PRIVIND INTELIGENȚA ARTIFICIALĂ (LEGEA PRIVIND INTELIGENȚA ARTIFICIALĂ) ȘI DE MODIFICARE A ANUMITOR ACTE LEGISLATIVE ALE UNIUNII, eur-lex.europa.eu, 21 aprilie 2021, disponibil aici.
[2] A se vedea Strategia Uniunii Europene împotriva proliferării armelor de distrugere în masă, eur-lex.europa.eu, martie 2016, disponibil aici. Ultima consultare: 12 iunie 2023;
[3] A se vedea The Hague Code of Conduct against Ballistic Missile Proliferation (HCoC), hcoc.at, octombrie 2020, disponibil aici. Ultima consultare: 20 iunie 2023.
[4] Artificial Intelligence: guidelines for military and non-military use, europarl.europa.eu, 10 decembrie 2020, disponibil aici. Ultima consultare: 25 iunie 2023.
[5] Pentru dezvoltări a se vedea Mihaela Banu, Reglementarea sistemelor de inteligență artificială la nivelul Uniunii Europene, cdep.ro, 17 iunie 2022, disponibil aici. Ultima consultare: 28 iunie 2023.
[6] A se vedea Strategia militară a României, Capacitate defensivă credibilă, pentru o Românie sigură, într-o lume marcată de noi provocări, sgg.gov.ro, 2021, disponibil aici. Ultima consultare: 7 iulie 2023.
[7] Machine learning (ML) este un subset al inteligenței artificiale (AI) care se axează pe construcția sistemelor care pot învăța – sau își pot îmbunătăți performanțele – în funcție de datele pe care le procesează. Machine learning (ML) este un subset al inteligenței artificiale (AI) care se axează pe construcția sistemelor care pot învăța – sau își pot îmbunătăți performanțele – în funcție de datele pe care le procesează (mai multe detalii aici).
[8] A se vedea Strategia militară a României, Capacitate defensivă credibilă, pentru o Românie sigură, într-o lume marcată de noi provocări, sgg.gov.ro, 2021, disponibil aici. Ultima consultare: 7 iulie 2023.
[9] Machine learning (ML) este un subset al inteligenței artificiale (AI) care se axează pe construcția sistemelor care pot învăța – sau își pot îmbunătăți performanțele – în funcție de datele pe care le procesează. Machine learning (ML) este un subset al inteligenței artificiale (AI) care se axează pe construcția sistemelor care pot învăța – sau își pot îmbunătăți performanțele – în funcție de datele pe care le procesează (mai multe detalii aici).
[10] Pentru dezvoltări a se vedea Prof. Dr. Aziz Akgül, Artificial intelligence: military applications, dergipark.org.tr, 17 februarie 2015, disponibil aici. Ultima consultare: 10 iulie 2023.
[11] Pentru dezvoltări a se vedea Marius Bâtcă, Roboții de luptă și inteligența artificială, noile provocări ale mediului militar, presamil.ro, 2020, disponibil aici. Ultima consultare: 7 iulie 2023.
[12] A se vedea Alex Ciutacu, Armata roboţilor: Americanii investesc 1 miliard de dolari pentru a trimite roboţi pe câmpul de luptă alături de soldaţi, zf.ro, 20 mai 2018, disponibil aici. Ultima consultare: 3 iulie 2023.
[13] Pentru dezvoltări a se vedea The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, arxiv.org, februarie 2018, disponibil aici. Ultima consultare: 10 iulie 2023.
[14] A se vedea Ce este securitatea cibernetică?, support.microsoft.com, disponibil aici. Ultima consultare: 10 iulie 2023.
[15] A se vedea Devin Partida, What is Data Poisoning & Why Should You Be Concerned?, internationalsecurityjournal.com, 13 septembrie 2021, disponibil aici. Ultima consultare: 10 iulie 2023.
[16] A se vedea Stancu Mihai, DEFINIȚII ȘI TERMENI UTILIZAȚI ÎN RAPORTUL DE EVALUARE ȘI TRATARE A RISCURILOR LA SECURITATEA FIZICĂ A UNUI OBIECTIV, evaluareriscfizic.ro, 4 ianuarie 2015, disponibil aici. Ultima consultare: 11 iulie 2023.
[17] CNR pentru UNESCO, Etica Inteligenței Artificiale. Cât de inteligent putem utiliza IA, 2021, disponibil aici. Ultima consultare: 15 iulie 2023.
[18] Pentru dezvoltări a se vedea Ce este inteligența artificială și cum este utilizată?, europarl.europa.eu, 21 iunie 2023, disponibil aici. Ultima consultare: 29 iunie 2023.
[19] Pentru dezvoltări a se vedea Excelență și încredere în inteligența artificială, commission.europa.eu, disponibil aici. Ultima consultare: 3 iulie 2023.
[20] Pentru dezvoltări a se vedea O Europă pregătită pentru era digitală: Comisia propune noi norme și măsuri menite să sprijine încrederea în inteligența artificială și excelența în acest domeniu, ec.europa.eu, 21 aprilie 2021, disponibil aici. Ultima consultare: 5 iulie 2023.
[21] Pentru dezvoltări a se vedea Propunere de DIRECTIVĂ A PARLAMENTULUI EUROPEAN ȘI A CONSILIULUI privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială (Directiva privind răspunderea în materie de IA), eur-lex.europa.eu, 28 septembrie 2022, disponibil aici. Ultima consultare: 14 iulie 2023.
[22] A se vedea Noi norme în materie de răspundere aplicabile produselor și inteligenței artificiale pentru a proteja consumatorii și a stimula inovarea, ec.europa.eu, 28 septembrie 2022, disponibil aici. Ultima consultare: 14 iulie 2023.


Cristina-Ioana Corlan
Studentă – Facultatea de Drept a Universității din București

Maria-Andreea Mateia
Studentă – Facultatea de Drept a Universității Nicolae Titulescu din București

Citeşte mai mult despre , ! Pentru condiţiile de publicare pe JURIDICE.ro detalii aici.
Urmăriţi JURIDICE.ro şi pe LinkedIn LinkedIn JURIDICE.ro WhatsApp WhatsApp Channel JURIDICE Threads Threads JURIDICE Google News Google News JURIDICE

(P) JURIDICE.ro foloseşte şi recomandă SmartBill şi My Justice.

Login | Pentru a putea posta comentarii trebuie să fiţi abonat. Dacă încă nu sunteţi, click aici pentru a afla despre avantaje!

Lasă un răspuns

Arii de practică
Achiziţii publice
Afaceri transfrontaliere
Arbitraj
Asigurări
Banking
Business
Concurenţă
Construcţii
Contencios administrativ
Contravenţii
Corporate
Cyberlaw
Cybersecurity
Data protection
Drept civil
Drept comercial
Drept constituţional
Drept penal
Dreptul familiei
Dreptul muncii
Dreptul Uniunii Europene
Dreptul penal al afacerilor
Dreptul sportului
Drepturile omului
Energie
Fiscalitate
Fuziuni & Achiziţii
Gambling
Health & Pharma
Infrastructură
Insolvenţă
Litigation
Malpraxis medical
Media & publicitate
Mediere
Piaţa de capital
Procedură civilă
Procedură penală
Proprietate intelectuală
Protective
Protecţia animalelor
Protecţia consumatorilor
Protecţia mediului
Recuperare creanţe
Sustenabilitate
Telecom
Transporturi

Parteneri arii de practică  Specialişti


JURIDICE.ro
Main page
Cariere
Evenimente ⁞ 
Dezbateri
Profesionişti
Lawyers Week
WinLaw.ro
VIDEO
Servicii
Flux noutăţi
Selected ⁞ 
Comunicate
Avocaţi
Executori
Notari
Sistemul judiciar
Studenţi / JURIDICE NEXT
RSS  Publicare comunicate profesionale
Articole
Essentials
Interviuri
Opinii
Revista de note, studii şi opinii juridice
ISSN 2066-0944
       Studii şi note de studiu
Revista revistelor
Autori  Condiţii de publicare articole
Jurisprudenţă
Curtea Europeană a Drepturilor Omului
Curtea de Justiţie a Uniunii Europene
Curtea Constituţională
Înalta Curte de Casaţie şi Justiţie
       Jurisprudenţă curentă ÎCCJ
       Dezlegarea unor chestiuni de drept
       Recurs în interesul legii
Curţi de apel ⁞ 
Tribunale ⁞ 
Judecătorii

Legislaţie
Proiecte legislative
Monitorul Oficial al României
Jurnalul Oficial al Uniunii Europene

Proiecte speciale
Cărţi
Covid-19 Legal React
Creepy cases
Life
Mesaje de condoleanţe
Povestim cărţi
Războiul din Ucraina
Wisdom stories