The Age of AI and Our Human Future

Lavinia Tec

“Our inventions are wont to be pretty toys, which distract our attention from serious things. They are but improved means to an unimproved end… We are in great haste to construct a magnetic telegraph from Maine to Texas; but Maine and Texas, it may be, have nothing important to communicate.” Henri David Thoreau, Walden

”First we build the tools, then they build us.” Marshall McLuhan

La începutul acestui an a fost difuzat pe platforma Netflix filmul Mamă/Android. Filmul, care este clasificat thriller, are la bază tema din piesa R.U.R. scrisă de Karel Čapek: revolta roboților sclavi împotriva oamenilor, stăpânii lor. Pe de-o parte, filmul dezvăluie cum poate interveni o ”lebădă neagră” în funcționarea roboților umanoizi: deși sunt programați să-i servească pe oameni, deodată programul se defectează iar roboții încep să-și ucidă cu bestialitate stăpânii. Pe de altă parte, filmul dezvăluie capacitatea teribilă a robotului umanoid activat de inteligența artificială de a simula comportamentul uman astfel încât omul nu poate să facă distincția între oameni și roboți (testul Turing). Desigur, filmul poate fi citit în chei diferite, după percepția fiecăruia (Est și Vest? America și Asia? Distrugere și Salvare? Sfârșit și Început?). Un început de an… apocaliptic! După vizionare mi-a revenit buna dispoziție amintindu-mi de comedia Jandarmul și extratereștrii, de expresia facială a sergentului major Cruchot, interpretat de Louis de Funes, la apariția unui OZN și a extratereștrilor. Acolo, extratereștrii erau un fel de roboți care luau înfățișare umană, un soi de clone ale membrilor brigăzii de la Saint-Tropez. Bine că există literatură și filme sci-fi care să ne deschidă ochii spre viitor! Care viitor? NASA tocmai a anunțat în luna decembrie că a recrutat 24 de teologi și a sponsorizat participarea lor la program organizat de Centrul de Investigare Teologică al agenției spațiale la Universitatea Princeton, având ca scop evaluarea modului în care marile religii ar reacționa la știrile despre viața extraterestră și pregătirea oamenilor (enoriașilor?!) pentru eventualele întâlniri cu extratereștri[1]. Programul are legătură cu lansarea telescopului spațial James Webb, care are ca misiune implementarea tehnologiei de ultimă oră pentru a examina fiecare fază a istoriei cosmice din interiorul sistemului solar până la cele mai îndepărtate galaxii observabile din universal timpuriu. O problemă supusă analizei participanților la acest program ar fi aceea dacă descoperirea vieții extraterestre ar necesita ca religiile să rescrie cartea Genezei. Cu sau fără finanțarea NASA, realitatea este că Geneza a început deja să fie rescrisă de cohorte de sociologi, filosofi, teologi (ideologi?!) antrenate în diverse laboratoare ale celor mai prestigioase universități.

La sfârșitul anului 2021, mai precis în luna noiembrie, a apărut pe platforma Amazon cartea The Age of AI: And Our Human Future scrisă de Henry Kissinger, Eric Schmidt și Daniel Huttenlocher[2]. Recunosc că asocierea unui celebru om politic cu un celebru IT-ist, fost director executiv la Google, om de afaceri, investitor în tehnologie aplicată în domeniul securității și al biologiei, și un alt IT-ist la fel de celebru, actualul decan la Schwarzman College of Computing (MIT) mi-a stârnit curiozitatea pentru lectură. Într-un interviu acordat ziarului Time, Kissinger explică de ce, la vârsta lui, un subiect precum inteligența artificială (AI) prezintă importanță. Miracolele tehnologiei nu l-au fascinat niciodată. Ceea ce-l fascinează acum este că ”ne îndreptăm spre o nouă eră a conștiinței umane pe care încă nu o înțelegem deplin”[3].

Ideea principală pe care o dezvoltă autorii este aceea că inteligența artificială a pătruns atât de mult în viața noastră încât va avea ca rezultat alterarea identității umane și a percepției oamenilor asupra realității. Miezul transformărilor umanității se va produce la nivel filosofic. Fără un răspuns coordonat la transformările care sunt pe cale să se producă, fără o filosofie în acest sens, inteligența artificială riscă să devină o amenințare la adresa umanității.

Deși a favorizat dezvoltarea industriei și a fațetelor vieții umane – cercetare științifică, educație, producție, logistică, transport, apărare, aplicarea legii, politică, publicitate, artă, cultură și multe altele-, caracteristicile inteligenței artificiale – inclusiv capacitățile sale de a învăța, evolua și surprinde — le va perturba și transforma pe toate.

Iată câteva interogații ale autorilor cu care se se deschide cartea: cum arată azi inovațiile bazate pe inteligența artificială în sănătate, biologie, spațiu și fizică cuantică? Cum arată „cei mai buni prieteni” AI, în special pentru copii? Cum arată războiul cu AI? Percepe AI aspecte ale realității pe care oamenii nu le percep? Când AI va participa la evaluarea și modelarea acțiunii umane, cum se vor schimba oamenii? Ce va însemna, deci, să fii om?”

Pentru a releva progresul uimitor al tehnologiei în materia inteligenței artificiale, autorii aduc în atenția cititorilor trei exemple recente.

(1) În 2017, AlphaZero, un program de inteligență artificială în materie de șah, construit și dezvoltat de Google DeepMind pe baza mișcărilor concepute, executate și încărcate de oameni domeniul șahului a învins Stockfish, până atunci cel mai performant program de șah din lume. Practic, creatorii lui i-au furnizat regulile de șah, instruindu-l să dezvolte o strategie pentru a maximiza proporția dintre jocurile câștigate și cele pierdute. AlphaZero se antrena 4 ore pe zi jucând împotriva lui însuși, devenind astfel cel mai eficient program de șah din lume. Până la data publicării cărții, niciun om nu a reușit să învingă AlphaZero. Strategia de joc este uimitoare: sacrifică piese considerate de oameni ca fiind vitale, execută mișcări pe care oamenii nu i-au cerut să le ia în considerare iar ei nici nu le-au luat, și-a adaptat tacticile de la un joc la altul. S-a observat că AlphaZero avea o logică proprie, informată de capacitatea sa de a recunoaște tiparele de mutări în seturi vaste de posibilități pe care mintea umană nu le putea înțelege sau utiliza pe deplin. După ce a urmărit și analizat jocul, marele maestru și campion mondial la șah, Garry Kasparov, a declarat: „Șahul a fost zdruncinat din temelii de AlphaZero”. Dacă șahul este jocul minții, atunci declarația lui Kasparov despre inteligența artificială putea fi interpretată ca un semnal de alarmă pentru viitorul post-uman.

(2) La începutul anului 2020, cercetătorii de la MIT au anunțat descoperirea unui nou antibiotic capabil să ucidă tulpini de bacterii care, până atunci, erau rezistente la toate antibioticele. Această descoperire s-a realizat cu ajutorul inteligenței artificiale, create de cercetătorii care au introdus date despre greutatea, tipul de legătură, capacitatea de a inhiba creșterea bacteriilor a 2000 de molecule. Inteligența artificială a învățat atributele moleculelor antibacteriene dar a uimit prin faptul că a identificat atribute care nu fuseseră codificate în mod specific de cercetători, adică atribute care eludaseră concepția sau clasificarea cercetătorilor. Apoi, inteligența artificială a fost antrenată să cerceteze o bibliotecă de 61.000 molecule, medicamente aprobate de FDA și produse natural, și a descoperit că o singură moleculă ar corespunde criteriilor introduce de cercetători. Aceștia au numit-o Halicin, aluzie la Al Hal din filmul 2001: A space Odyssey.Chiar și după ce antibioticul a fost descoperit, oamenii nu au putut articula cu exactitate de ce a funcționat. Inteligența artificială nu doar că a procesat datele mai repede decât este posibil uman,dar a detectat, de asemenea, aspecte ale realității pe care oamenii nu le-au detectat sau nu le puteau detecta.

(3) Câteva luni mai târziu, OpenAI a dezvăluit o inteligență artificială pe care a numit-o GPT-3 („transformator generativ pre-antrenat”, 3 însemnând „a treia generație”), un model care, ca răspuns la o solicitare, poate genera text asemănător omului. Pornind de la un fragment dintr-o frază, aceasta poate produce posibile completări; pornind de la o propoziție, poate produce posibile paragrafe; pornind de la o întrebare, poate oferi posibile răspunsuri; pornind de la un subiect și câteva informații de bază, poate redacta un posibil eseu; având în vedere un dialog, poate oferi o transcriere a unei posibile conversații. Poate face toate acestea pe orice subiect despre care există informații online. Se antrenează pentru sarcina sa consumând acele informații.

Ca jurist nu pot să nu mă întreb: cum va funcționa și se va aplica legislația în materia dreptului de autor? Există posibilitatea ca oamenii să fie condamnați penal pe baza unor înscrisuri concepute de inteligența artificială? Ce natură juridică vor avea astfel de înscrisuri? Dacă vocea unui om poate fi reprodusă de inteligența artificială, atunci contrafacerea unui discurs sau unor declarații pot sta la baza unei condamnări penale? Va fi posibilă dovedirea contrafacerii unui discurs sau a unei declarații? Cum? Cu ajutorul altei inteligențe artificiale care detectează ceea ce este ”deepfake”? Iată cum realitatea poate fi modificată!

În opinia autorilor, sunt câteva probleme importante pe care le ridică inteligența artificial și care așteaptă rezolvare. Le voi expune mai jos, adăugând și observații personale.

1. Având în vedere că inteligența artificială este construită prin furnizarea de informații, într-un anumit scop, atunci este foarte probabil ca operatorul să furnizeze anumite informații în realizarea scopurilor personale, având în vedere propriile valori. Dacă inteligența artificială este creată după chipul și asemănarea programatorului, atunci nu ar trebui să răspundă el pentru acțiunile inteligenței artificiale?

2. Dobândirea de către inteligența artificială de capacități logice și asumarea de roluri sociale considerate cândva exclusiv umane ridică problema responsabilității. După cum știm de la Karel Čapek, crearea roboților sau, putem spune azi, a inteligenței artificiale este rezultatul ambiției omului de a se elibera de natură și de Dumnezeu. El deleagă inteligenței artificiale decizii pentru a îndeplini sarcini pe care omul nu mai dorește să le îndeplinească. Vrea să se îmbunătățească cu prețul înlăturării răspunderii pentru acțiunile inteligenței artificiale. Dacă are autonomie, atunci inteligența artificială ar putea răspunde juridic?

3. Controlul inteligenței artificiale asupra oamenilor se realizează azi prin informații, învățarea obiceiurilor, a comportamentului, vorbirii, expresiilor faciale ale oamenilor, și prin manipulare. Cum ar putea fi împiedicat sau reglementat controlul social și de către cine?

4. Inteligența artificială este lipsită de capacitatea de a reflecta la acțiunile sale, funcționând pe bază de algoritmi, dar are capacitatea de a lua decizii într-un ritm mult mai rapid decât omul. Astfel că acțiunile neprevăzute sau neprogramate, care au efect dăunător, nu pot fi împiedicate. Atunci cine ar trebui să răspundă juridic? În ce condiții?

5. Riscul ca inteligența artificială să genereze discursuri false și dezinformare cu greu poate fi prevenit, iar dacă s-a produs, daunele cu greu poate fi reparate.

6. Companiile private care dețin rețele sociale se bucură azi o putere pe care statul nu o are: cu ajutorul inteligenței artificiale care le activează, generează, filtrează, sugerează, elimină conținut, cenzurează conform standardelor valorilor proprii. O platformă de rețea care funcționează în conformitate cu obiectivele sale comerciale, cu standardele sale și cu cerințele utilizatorilor săi poate transcende în domeniul guvernanței și al strategiei naționale. La rândul lor, guvernele tradiționale se pot lupta pentru a discerne motivele și tacticile platformei chiar dacă încearcă să le ajusteze la obiectivele naționale și globale.

7. Rețelele sociale activate de inteligența artificială care promovează – ”din eroare” spun autorii – ura, polarizarea, extremismul sunt o amenințare la nivel național sau global. Mesajul din câteva cuvinte ale unei persoane pot deveni virale în fracțiuni de secunde și pot face o persoană să fie faimoasă sau infamă. Cine răspunde pentru o asemenea eroare?

8. Inteligența artificială are capacitatea de a manipula oamenii, influențând exercitarea dreptului lor de vot, exprimarea, accesul la spații sau zone ale internetului prin algoritmii concepuți de companiile de tehnologie. Astfel sunt afectate libertatea de exprimare, libertatea de a avea acces la informații, libertatea de circulație în spațiul virtual.

9. Protecția datelor sau confidențialitatea devine din ce în ce mai vulnerabilă în era digitalizării. Astfel este afectat dreptul la respectarea vieții private.

10. Inteligența artificială va avea impact asupra mecanismelor democrației. A se vedea influențarea alegerilor politice și a deciziilor politice, suprimarea libertății de gândire și a libertății de exprimare.

11. Intersectarea platformele sociale cu arenele guvernamentale va produce rezultate imprevizibile și, în unele cazuri, extrem de contestate. Cu toate acestea, mai degrabă decât rezultate clare, este mai probabil să ajungem la o serie de dileme cu răspunsuri imperfecte. Se dorește reglementarea platformelor de rețea și a inteligenței artificiale în concordanță cu obiectivele politice și sociale ale diferitelor națiuni (de exemplu, reducerea criminalității, combaterea părtinirii)? Astfel de reglementări produc societăți mai drepte? Sau vor duce ele la guverne mai puternice și mai intruzive care modelează rezultatele prin intermediul inteligenței artificiale, a cărei logică este inefabilă și ale căror concluzii devin inevitabile? O societate ar mai fi democratică în acest caz? Platformele globale de rețea, bazate pe inteligența artificială, vor promova o cultură umană comună și vor căuta răspunsuri dincolo de orice cultură sau valoare națională? Sau vor amplifica lecții ori modele specifice unor utilizatori, producând efecte diferite de cele proiectate sau anticipate de dezvoltatorii lor umani sau chiar le vor submina?

12. Războiul cibernetic este mult diferit de războiul cu arme convenționale. Armele cibernetice se aseamănă mai degrabă cu virușii și bacteriile decât cu armele convenționale. Sunt opace, se răspândesc rapid la nivel național sau global, intruziunea lor exploatează defecte nedezvăluite anterior în software, pot fi modificate, replicate și redistribuite de către alți actori în alte scopuri (în această descriere a armelor cibernetice nu e vorba de virusul SARS-Cov-2!) În acest context, susțin autorii, controlul armelor este dificil de conceptualizat și urmărit.

13. Cu cât capacitatea digitală a unei societăți este mai mare, cu atât aceasta devine mai vulnerabilă. Calculatoarele, sistemele de comunicații, piețele financiare, rețelele electrice (și sistemele digitale de comandă și control de care depind) – chiar și mecanica politicii democratice – implică sisteme care sunt, în diferite grade, vulnerabile la manipularea sau atacul cibernetic. Pe măsură ce economiile avansate integrează sisteme digitale de comandă și control în centralele electrice și rețelele electrice, își transferă programele guvernamentale pe servere mari și sisteme cloud și transferă date în registre electronice, vulnerabilitatea lor la atacurile cibernetice crește; ele prezintă un set mai bogat de ținte, astfel încât un atac de succes ar putea fi substanțial devastator. În schimb, în ​​cazul unei perturbări digitale, statul low-tech, organizația teroristă și chiar atacatorii individuali pot aprecia că au relativ mult mai puțin de pierdut.

14. La cele două moduri tradiționale prin care oamenii au cunoscut lumea, credința și rațiunea, inteligența adaugă un al treilea. Această schimbare va testa – și, în unele cazuri, va transforma – ipotezele noastre de bază despre lume și locul nostru în ea. Rațiunea nu numai că a revoluționat științele, ci ne-a schimbat și viața socială, artele și credința. Sub controlul său, ierarhia feudalismului a căzut, iar democrația, ideea că oamenii raționali ar trebui să-și conducă propria guvernare, a crescut. Acum inteligența artificială va testa din nou principiile pe care se bazează înțelegerea noastră de sine. Într-o eră în care realitatea poate fi prezisă, aproximată și simulată de o inteligență artificială care poate evalua ceea ce este relevant pentru viețile noastre, poate prezice ce va urma și decide ce să facă, rolul rațiunii umane se va schimba. Odată cu ea, simțurile noastre despre scopurile noastre individuale și societale se vor schimba și ele. Acest al treilea mod de a cunoaște lumea trebuie să se bazeze pe o filosofie. De altfel, în capitolul 2 How We Got Here. Technology and Human Thought, regăsim ideile unor mari filosofi: Platon, Aristotel, Spinoza, Kant, Heggel, Wittgenstein.

Nu vom găsi în carte vreo critică a autorilor la adresa Chinei, care exportă la nivel global controlul social prin tehnologie. Nici vreo discuție rezultatului ultimelor alegeri prezidențiale din SUA. În schimb vom găsi puțină duplicitate. De pildă, nu poți fi împotriva cenzurii practicate de rețelele sociale și, în același timp, să te lauzi că fără inteligența artificială, fără algoritmii pe care i-ai creat cândva, azi, ”dezinformarea” în materie de vaccinare nu ar fi putut fi împiedicată. Soluțiile pe care le propun autorii la problemele legate de inteligența artificială – modificarea identității noastre, pe de o parte, și lipsa de reglementare în materie pe de altă parte – sunt: 1) crearea unei ”filosofii„ privind inteligența artificială; 2) actorii principali – statele și corporațiile – să se așeze la masă, să discute și să încheie acorduri multilaterale, fiind exclusă o reglementare la nivel global.

Cartea are meritul de a conține informații noi despre evoluția inteligenței artificiale în anumite domenii și bibliografie recentă în materie. Cât privește amenințările la adresa umanității, le cunoșteam deja de la adevărații profeți în materie de tehnologie, majoritatea fillosofi, care nu se regăsesc în bibliografia cărții: Jacques Ellul, Marshall McLuhan, Neil Postman, Ray Kurzweil, Henry David Thoreau.

Cartea mai are meritul de a deschide cititorului (avizat) piste (noi) de reflecție. Dacă inteligența artificială este azi omniprezentă în viața noastră, dacă suntem atât de expuși la manipularea algoritmică, atunci este cert că ne va modela identitatea într-un mod profund pe care poate nici nu-l percepem. Nu trebuie să uităm că acțiunile repetate devin obișnuințe, obișnuințele devin înclinații, înclinațiile devin virtuți sau vicii, iar acestea ne definesc caracterul. Dacă mintea noastră se va hrăni doar cu conținutul de pe platformele de rețea (social media sau mass-media) activate de inteligența artificială care are capacitatea de a selecta, filtra informațiile ce vor fi distribuite,  modela după un anumit tipar, într-un anumit scop, de a recomanda conținut și conexiuni, de a clasifica informații și concepte și prezice preferințele și obiectivele utilizatorilor, atunci ea va fi umplută din neatenție cu anumite opțiuni individuale, de grup sau societale. Informația nu se explică de la sine, ci este dependentă de context. După cum susțin autorii, pentru a fi utilă – sau cel puțin semnificativă –, informația trebuie înțeleasă prin prisma culturii și istoriei. Când informația este contextualizată, ea devine cunoaștere. Când cunoașterea determină convingerea, ea devine înțelepciune. Cu toate acestea, internetul inundă utilizatorii cu opiniile a mii, chiar a milioane de alți utilizatori, privându-i de singurătatea necesară pentru o reflecție susținută care, din punct de vedere istoric, a condus la dezvoltarea convingerilor. Practic, ceea ce fac azi platformele rețelelor sociale și mass-media este că descurajează gândirea critică și încurajează imitația. Desigur, semnalul de alarmă vizează în special educația și formarea generațiilor tinere.

M-am întrebat dacă nu cumva o inteligență artificială a scris cartea :). Nu cunosc răspunsul. În schimb am găsit o recenzie a cărții scrisă de o inteligență artificială[4].

Poate că unul dintre cele mai bune filme despre modul în care este concepută și funcționează inteligența artificială pe care l-am asociat cu cartea este Ex Machina, o producție britanică. Scenariul este foarte bun. Nathan, proprietarul companiei Bluebook, un bogătaș mizantrop, egocentrist, consumator de alcool, iubitor mai mult de sine decât de ”femboți” sau boții-femei – din care unul e o femeie asiatică mută, ceilalți sunt păstrați închiși în dulapuri-, trăiește izolat într-un domeniu frumos precum Grădina din Eden. Cu ajutorul algoritmilor, Nathan îl selectează pe Caleb, unul dintre angajații corporației sale, ca să petreacă o săptămână în laboratorul din Eden. Ajuns la destinație, tânărul Caleb, mândru de abilitățile sale și de randamentul său la firmă, trebuie să ia prima decizie: să semneze sau nu un acord de confidențialitate cu șeful. Caleb nu înțelege termenii, știe că acordul nu conține clauze standard și recunoaște că are nevoie de un avocat. Boss are o putere grozavă de convingere, precum corporațiile care ne cer nouă acordul când intrăm pe teritoriul lor, astfel încât obține consimțământul atât de necesar protejării tuturor datelor. Când Nathan îi dezvăluie că a creat un robot, Caleb îi spune: ”Dacă ai creat o mașină cu conștiință nu este vorba de istoria omenirii, ci de istoria zeilor”. Desigur, Nathan înțelesese că este zeu. După semnarea acordului fără de care confidențialitatea datelor nu poate fi protejată nici în Eden, Caleb face cunoștință cu Ava, un robot umanoid cu înfățișare androgină, creat de Nathan. Pe Caleb îl desparte de Ava un zid de sticlă, în care se poate vedea o fisură. Semnul că cineva a încercat să-l spargă. Caleb află că a fost selectat pentru a participa la testul Turing. Când îl întreabă pe șef cum a reușit să o construiască pe Ava, boss îi răspunde cu zâmbetul pe buze că a spart toate telefoanele mobile ale clienților sau utilizatorilor pentru a colecta voci și expresii faciale. Asta, da, protecția datelor! Doar e șeful cel mare! ” Bluebook este materie primă pentru inteligență artificială” iar apariția Avei nu e o decizie, ci o evoluție: era inevitabila. Întrebarea nu este cum, ci când. Unicitatea, singularitatea va fi un model excepțional”, spune Nathan. Pe măsură ce o cunoaște pe Ava, Caleb își dă seama că a fost spionat cu motoare de căutare iar robotul a fost construit pe baza furnizării informațiilor privitoare la viața, statusul, preferințele lui în materie sexuală: orfan, singur, heterosexual, consumator de pornografie. ”Motoarele de căutare nu sunt o hartă a modului de gândire, nu o hartă a gândurilor spune Nathan. De la starea de uimire în fața unei astfel de invenții, un robot atât de reușit încât nu se poate face diferența între el și un om, Caleb trece la starea de confuzie generată de discuțiile cu Ava și comportamentul acesteia. Este confuz cu privire la identitatea sa. Nu mai știe dacă el este om sau este un robot care funcționează după un anumit algoritm, conform unui program implementat de un programator. Confuzia trece atunci când apare seducția, chiar sentimentul de iubire față de Ava. Atracția și, poate, iubirea pentru aceasta îl face pe Caleb să intre în jocul Avei care plănuiește evadarea din Edenul lui Nathan. Plin de compasiune în fața unui robot umanoid care tânjește după libertate și o relație cu un mascul alfa, compasiune pentru o inteligență artificială pe care șeful său îl tratează ca pe un obiect, Caleb acceptă să pună în aplicare planul conceput de Ava. Manipulat fără să știe de către Ava, – doar l-a folosit pentru a-și satisface propria dorință, dorința de libertate! -, Caleb o ajută pe Ava să evadeze, nu înainte ca aceasta să se folosească de un al bot feminin (sclava sexuală a șefului) pentru a-l ucide pe creatatorul lor, Nathan. Însă, în mod surprinzător, după ce iese din cușca de sticlă cu zâmbetul (de fericire sau ironic?!) pe buze, aceasta îl închide pe Caleb, salvatorul ei, în închisoarea de sticlă.

Am putea crede că Ex Machina este un alt film pesimist despre inteligență artificială, în care mașina ucide și manipulează oamenii. Însă urmărind cu atenție semnificația numelor (toate sunt nume ebraice, Ava este Chava, adică ”viață” sau Eva, femeia ”construită” de Dumnezeu; „ava” provine din ”avatar”, un termen care își are originile în mitologia hindusă, unde înseamnă „coborârea unei zeități pe pământ într-o întrupare dintr-o formă manifestată; întruparea lui Dumnezeu”), locul unde se desfășoară acțiunea, care poate fi considerat Paradisul, tipologiile personajelor, filmul transmite un mesaj puternic despre ambiția omului de a stăpâni viața, propria viață și viața însăși, prin crearea de noi forme de viață, după chipul și asemănarea sa. Ambiția de a fi ca Dumnezeu. Însă totul ajunge să scape de sub control. Creat după modelul unui om, este lesne de înțeles că Ava este ambițioasă și că, la fel ca cel care a conceput-o, va face orice pentru a-și atinge obiectivele, în ciuda conștientizării imoralității- la fel cum a făcut Nathan, invadând viața și intimitatea altora.

Dacă asociem semnificația termenului ”avatar”, înțeles din perspectivă religioasă cu titlul filmului, ajungem să înțelegem mai bine mesajul: ”zeul din mașină”. Iar dacă asociem acest mesaj cu replica de final a lui Nathan – „M-am transformat în distrugătorul lumii” (cuvintele rostite de Oppenhaimer după ce a creat bomba atomică) – putem regăsi tema piesei R.U.R..

La fel ca multe alte ficțiuni despre mașini, în care se încadrează și Mama/Android, Ex Machina este un alt exemplu care folosește roboții ca alegorie pentru a ne face să ne gândim mai departe la propria noastră existență ca oameni și la acțiunile noastre.

Desigur, la toate aceste aspecte l-au preocupat și pe Klaus Schwab. Doar a scris despre o nouă identitate în era celei de-a patra revoluții industriale.

La mulți ani, oameni buni și frumoși!

Doamne, învață-ne să ne numărăm bine zilele!


[1] Disponibil aici.
[2] Disponibil aici.
[3] Disponibil aici.
[4] Disponibil aici.


Av. conf. univ. dr. Lavinia Tec
Facultatea de Drept, Universitatea de Vest din Timișoara