Secţiuni » Arii de practică » Business » Cyberlaw
Cyberlaw
CărţiProfesionişti
UNBR Caut avocat
UNBR Caut avocat
UNBR Caut avocat
AUDI Q3
AUDI Q3
Cyberlaw Data protection Dreptul muncii Note de studiu RNSJ SELECTED

Folosirea inteligenței artificiale la locul de muncă – Riscuri și potențiale soluții identificate de Organizația pentru Cooperare și Dezvoltare Economică

15 aprilie 2024 | Daliana POPA
Daliana Popa

Daliana Popa

La momentul actual, folosirea inteligenței artificiale („AI”) la locul de muncă capătă o amploare din ce în ce mai mare. Cu toate acestea, nu există o abordare uniformă asupra efectelor și riscurilor implementării AI la locul de muncă, care să încurajeze la o valorificare a beneficiilor pe care utilizarea AI le poate aduce.

Pentru a observa care sunt riscurile/lacunele utilizării sistemelor AI la locul de muncă și pentru identificarea de soluții care să conducă la diminuarea lor, Organizația pentru Cooperare și Dezvoltare Economică ,,OCDE” s-a bazat pe un studiu de caz, efectuat prin chestionarea a 5.334 angajați și 2.053 de angajatori din Austria, Canada, Franța, Germania, Irlanda, UK și SUA, cu privire la impactul implementării AI la locul de muncă.

În acest context, în 15.03.2024, OCDE a publicat un document de lucru[1] care cuprinde: (i) principalele riscuri pentru mediul de lucru, generate de utilizarea inteligenței artificiale la locul de muncă, (ii) lacune ale sistemelor AI și (iii) o serie de recomandări de soluții pentru statele membre OCDE (și nu numai) care ar conduce la ameliorarea acestor riscuri, acoperirea lacunelor și, în cele din urmă, exploatare cât mai productivă a acestor sisteme.

Principalele 10 zone de risc identificate în legătura cu utilizarea AI sunt: (i) Automatizarea și înlocuirea anumitor locuri de muncă, (ii) Creșterea gradului de inegalitate, (iii) Riscurile pentru sănătatea și securitatea în muncă, (iv) Încălcările securității datelor, (v) Prejudecățile și discriminarea, (vi) Lipsa de autonomie, capacitate de a lua decizii și demnitate, (vii) Lipsa de transparență, (viii) Insuficiența explicabilității sistemelor AI, (ix) Lipsa de răspundere și (x) Provocările pentru dialogul social.

În cele ce urmează, vom analiza fiecare dintre cele 10 zone de risc menționate mai sus, dar și modalitățile prin care impactul acestor riscuri poate fi diminuat considerabil, astfel încât acest lucru să conducă la valorificarea sistemelor AI.

(i) Cu privire la automatizarea și înlocuirea anumitor locuri de muncă, OCDE a constatat că riscurile se pot traduce într-o creștere a ratei șomajului, și o creștere a nevoii de instruire a abilităților tehnice în materie de AI, dar și a celor complementare (comunicare, creativitate, abilitatea de a lucra cu alte persoane șamd).

Arbitraj comercial

Evenimente juridice

Servicii JURIDICE.ro

OCDE învederează că pentru diminuarea acestora, statele se pot axa pe următoarele linii de politică internă: 1. Monitorizarea impactului AI pe piața muncii și identificarea locurilor de muncă cu risc ridicat de automatizare; 2. Anticiparea abilităților necesare în condițiile implementării sistemelor AI la locul de muncă; 3. Programe de dezvoltare a abilităților necesare lucrului și dezvoltării AI la toate nivelele de educație; 4. Cursuri pentru salariați și manageri pentru a sprijini adoptarea și folosirea sigură a AI; 5. Măsuri de scădere a ratei șomajului (cursuri pentru anumite categorii de angajați, programe de îndrumare în carieră pentru angajații care ocupă locurile de muncă cu risc ridicat de automatizare prin intermediul sistemelor AI); 6. Măsuri de protecție socială adecvate pentru angajații ale căror locuri de muncă vor fi înlocuite de inteligența artificială; 7. Sprijinirea dialogului social.

În prezent, din cauză că în Europa, legile sunt mult mai restrictive cu privire la restructurarea locurilor de muncă și mai avantajoase în ce privește sprijinul social acordat angajaților, Europa se poziționează mult în urma USA și China în ce privește investițiile în inteligența artificială[2].

În România, la momentul actual, restructurările, chiar bazate pe motive de profitabilitate, sunt supuse cenzurii instanțelor de judecată. Astfel, în cazul concedierilor individuale sau colective, salariații pot contesta deciziile angajatorilor în termen de 45 de zile de la data de la care salariații au luat la cunoștință de încetarea contractelor de muncă, potrivit art. 268 alin. (1) lit. a) din Codul muncii.

(ii) Cu privire la creșterea gradului de inegalitate (inegalitate sub aspectul riscului de automatizare a activității desfășurate, sub aspectul riscurilor de încălcare a securității datelor cu caracter personal, de discriminare, de siguranță și securitate în muncă, dar și sub aspectul competitivităţii pe piața muncii dat de gradul de utilizare al AI la locul de muncă actual), recomandările OCDE vizează: 1. Identificarea grupurilor care sunt cele mai expuse riscurilor aferente utilizării AI pe piața muncii; 2. Pregătirea și sprijinirea salariaților dezavantajați înaintea și în cursul adoptării sistemelor AI; 3. Acordarea de granturi și subvenții IMM-urilor pentru a le facilita adoptarea de sisteme AI de încredere; 4. Abordarea riscurilor din sistemele AI cu privire la prejudecăți, discriminare și autonomie; 5. Implicarea grupurilor vulnerabile și nereprezentate în dezvoltarea și implementarea lor la locul de muncă.

În Uniunea Europeană, la acest moment există un proiect de directivă care protejează categoria vulnerabilă a lucrătorilor pe platforme[3], însă după adoptarea acesteia, fiecare țară în parte va trebui să transpună această directivă. Cu toate acestea, nu doar lucrătorii pe platforme sunt afectați de sistemele AI, ci există mai multe categorii vulnerabile de angajați în legătură cu care nu sunt prevăzute alte reguli de protecție specifice în afara celor generale de protecție a muncii, care sunt insuficiente și neadaptate la realitatea actuală generată de implementarea de noi modele de business și a sistemelor AI.

La nivel național, situația este similară. La acest moment, nici lucrătorii pe platforme și nici ceilalți salariați dezavantajați de adoptarea sistemelor AI nu au parte de un regim specific de protecție (adaptat evoluției pieței), în afara celui comun, prevăzut de Codul muncii, legislația anti-discriminare și Regulamentul de Protecție al Datelor cu Caracter Personal, potrivit cărora se pot adresa autorităților competente sau instanțelor de judecată în măsura în care se simt lezați.

(iii) Riscurile pentru sănătatea și securitatea la locul de muncă pot fi limitate cu ajutorul AI (prin preluarea sarcinilor periculoase, detectarea pericolelor și monitorizarea stării de oboseală).

Însă, chestionarele OCDE au relevat noi riscuri pentru sănătatea angajaților, cum ar fi creșterea nivelului de stres cauzat de presiunea timpului și a performanței sau încurajarea angajaților să ignore standardele de siguranță. OCDE constată, de asemenea, că stresul poate rezulta și din deciziile incorecte, lipsa de transparență și explicații, dispariția sarcinilor de rutină care ofereau un ,,moment de respiro” angajatului. Scăderea nivelului de interacțiune umană poate afecta sănătatea mentală a angajaților.

Direcțiile privind potențialele măsuri politice, recomandate de OCDE vizează: 1. Revizuirea și actualizarea reglementărilor care vizează condițiile de muncă și sănătatea și securitatea în muncă, cu aspecte privind utilizarea AI la locul de muncă; 2. Evaluări ale riscurilor de sănătate și securitate în muncă, auditarea și certificarea sistemelor AI pentru asigurarea sănătății și siguranței angajaților, încă din faza de proiectare a acestor sisteme; 3. Consolidarea atribuțiilor inspectoratelor de muncă pentru inspecția și punerea în executare a mijloacelor de conformare cu noile exigențe legale; 4. Implicarea managerilor, angajaților și reprezentanților lor în proiectarea și adoptarea sistemelor AI la locul de muncă; 5. Informarea angajatorilor, angajaților și reprezentanților lor despre posibilele riscuri asupra sănătății și securității în muncă pe care le implică folosirea sistemelor AI.

În prezent, informațiile referitoare la impactul sistemelor AI asupra sănătății fizice și psihice a salariaților sunt insuficiente pentru a înțelege urmările utilizării AI la locul de muncă, însă acestea vor fi observate în perioada imediat următoarele, iar bunăstarea fizică și psihoemoțională a salariaților nu va face doar obiectul reglementărilor viitoare, ci va continua să ocupe un rol din ce în ce mai important în strategiile de well-being dezvoltate de departamentele de resurse umane.

(iv) Încălcarea securității datelor cu caracter personal reprezintă o zonă de risc din ce în ce mai accentuată, în condițiile în care utilizarea din ce în ce mai frecventă a AI la locul de muncă constă în colectarea și analiza amănunțite ale datelor cu caracter personal. OCDE arată că aceste date pot include: mișcările angajaților, datele biometrice, ritmul cardiac, tensiunea arterială și comportamentele online. O supraveghere crescută și colectarea acestor date (mai ales în contextul în care angajații nu și-au exprimat consimțământul pentru colectarea și folosirea lor) va crește atât nivelul de stres al angajaților, cât și îngrijorarea că datele vor fi utilizate și pentru alte scopuri decât cele pentru care au fost colectate.

OCDE a constatat că în țările membre, protecția angajaților împotriva încălcării datelor cu caracter personal variază de la o țară la alta, astfel, dacă în țările din Uniunea Europeană, Regulamentul General pentru Protecția Datelor cu Caracter Personal lasă aceste reguli la latitudinea fiecărui stat membru, neexistând un regim armonizat de protecție al angajaților, în celelalte state membre OCDE, protecția este și mai slabă, mai ales în SUA.

Potențialele direcții spre care statele și-ar putea orienta politicile ar fi, din perspectiva OCDE, următoarele: 1. Evaluări de impact și etichete de calitate pentru aprecierea securității datelor cu caracter personal în sistemele AI; 2. Restricționarea colectării, folosirii, interferenței și divulgării informațiilor personale despre salariați; 3. Exigențe privind protejarea datelor cu caracter personal ale angajaților și gestionarea adecvată a acestei categorii de date; 4. Informarea salariaților despre datele personale care urmează să fie colectate de angajatori și cu privire la scopul pentru care urmează să fie folosite; 5. Asigurarea angajaților a drepturilor de a corecta, șterge, retrage consimțământul sau limita folosirea datelor personale sensibile, inclusiv prin intermediul reprezentanților salariaților; 6. Etichete de calitate și certificări ale sistemelor AI pentru asigurarea unei bune protecții a datelor cu caracter personal.

(v) Prejudecățile și discriminarea pot fi reduse cu ajutorul AI, însă, sistemele AI (în funcție de modul în care sunt proiectate și antrenate) vor reproduce prejudecățile și atitudinile discriminatorii ale oamenilor. OCDE oferă câteva exemple în care prejudecățile umane pot ,,vicia” rezultatele utilizării sistemelor de AI la locul de muncă. Astfel, prejudecățile umane, actuale, ,,integrate” în cadrul unui sistem AI, pot genera inechități cu privire la persoanele care vor avea vizibilitate asupra anunțurilor de angajare, persoanele care sunt incluse pe lista-scurtă în procesele de recrutare, persoanele cărora le sunt atribuite anumite tipuri de sarcini la locul de muncă, persoanele care primesc anumite tipuri de cursuri/traininguri, evaluarea performanței șamd.

Câteva exemple relevante de tipuri de prejudecăți care au fost identificate în utilizarea sistemelor AI[4] sunt următoarele: (i) Prejudecata algoritmului – dezinformarea poate apărea dacă solicitarea sau întrebarea adresată sistemului AI, nu este suficient de specifică, sau dacă rezultatul algoritmului de învățare automată nu ajută la găsirea unei soluții;  (ii) Prejudecata cognitivă – tehnologia AI necesită intervenție umană, iar oamenii nu sunt infailibili, astfel încât prejudecata personală poate se infiltra fără ca practicienii să-și dea seama. Acest lucru poate afecta fie setul de date, fie comportamentul modelului, pentru că AI se bazează foarte mult pe credințele sau tendințele preexistente în date. Așa apare o subcategorie a prejudecății cognitive – prejudecata de confirmare, al cărei efect constă în dublarea prejudecăților existente, tehnologia fiind incapabilă să identifice noi modele sau tendințe. (iii) Prejudecata de omogenitate a grupului extern: dezvoltatorii (grupul intern) care, în datele de instruire, creează algoritmi care nu au abilitatea de a distinge între indivizii care nu fac parte din grupul lor și este foarte probabil ca sistemul AI să genereze erori, rezultate inechitabile, rezultate bazate pe prejudecată rasială sau clasificări greșite. În acest sens, un studiu de la Universitatea din Columbia a constatat că probabilitatea să apară erori de predicție și discriminări este foarte ridicată, pentru că prejudecățile unui grup similar de oameni vor fi introduse inconștient în sistemul AI, astfel încât va lipsi empatia față de ce este perceput ca ,,diferit”[5]; (iv) Prejudecata de eșantionare/selecție – reprezintă o problemă atunci când datele utilizate pentru a instrui modelul de învățare automată nu sunt suficient de reprezentative sau sunt incomplete pentru a instrui suficient sistemul. Spre exemplu, dacă toate persoanele care ocupă un anumit post și care au fost implicați în instruirea unui model AI utilizat în recrutare, au aceleași calificări academice (ex: 3 manageri din cadrul unui departament de vânzări care au terminat o facultate de profil economic- deci grup omogen), atunci orice viitori candidați ar trebui să aibă calificări academice identice/similare (pentru că un candidat pentru aceeași poziție în departamentul de vânzări, cu experiență relevantă, dar care ar avea calificări academice în domeniul turismului ar putea fi exclus de sistemul AI).

Pentru diminuarea acestor riscuri, OCDE recomandă următoarele direcții în politicile de reglementare ale statelor: 1. Revizuirea și unde se va considera necesar, chiar adaptarea legislației împotriva discriminării, la condițiile folosirii AI la locul de muncă; 2. Evaluări de impact asupra riscurilor generate de existența prejudecăților umane, desfășurate anterior implementării și auditarea cu regularitate, post-implementare; 3. Etichete de calitate și certificări împotriva prejudecăților; 4. Implicarea partenerilor sociali și reprezentanților categoriilor vulnerabile și subreprezentate de angajați în proiectarea și implementarea sistemelor AI la locul de muncă.

În prezent, SUA manifestă o preocupare constantă asupra studierii și ameliorării prejudecăților din sistemele AI[6].

Dincolo de obligațiile introduse în cadrul de reglementare intern și comunitar, la nivelul fiecărei companii care alege să introducă tehnologia AI la locul de muncă, echitatea rezultatelor generate de o astfel de tehnologie poate fi îmbunătățită, prin parcurgerea următoarelor 6 procese: 1. Selectarea modelului de învățare adecvat; 2. Antrenarea tehnologiei AI cu date adecvate; 3. Alegerea unei echipe neomogene cu privire la rasa, sex, nivel economic și de educație și atribuții de serviciu, în toate etapele implementării unei soluții AI la locul de muncă, de la faza de inovare și proiectare până la antrenarea soluției și utilizarea ei; 4. Procesarea datelor cu caracter personal cu atenție și cu respectarea regulilor în materie; 5. Monitorizarea constantă a soluției și 6. Evitarea problemelor de infrastructură. [7]

(vi) Lipsa autonomiei, capacității de a lua decizii și demnității în rândul angajaților reprezintă o zona de risc din exploatarea avantajelor utilizării AI, precum creșterea eficientizării proceselor și creșterea productivității.

Pentru a maximiza avantajele în această zonă de risc, OCDE recomandă: 1. Definirea clară a limitelor de utilizare a sistemelor AI (ex: când se permite extinderea monitorizării sau deciziile automate); 2. Necesitatea supravegherii umane a deciziilor care afectează securitatea, drepturile și oportunitățile salariaților; 3. Consultarea și implicarea angajaților și reprezentanților lor la implementarea sistemelor AI.

(vii) Lipsa transparenței cu privire la deciziile automate sau chiar cu privire la interacțiunea cu un sistem AI în loc de interacțiunea cu o persoană, reprezintă un risc, care potrivit OCDE, poate fi ameliorat prin: 1. Obligația de a menționa expres utilizarea AI atât la locul de muncă, cât și în procesele de recrutare, atât pentru angajați, cât și pentru angajatori; 2. Revizuirea, iar dacă e necesar și actualizarea legilor privind securitatea datelor cu caracter personal și drepturilor de proprietate intelectuală pentru abordarea lipsei de claritate și a echilibra drepturile care protejează angajații împotriva utilizării netransparente a AI.

(viii) Insuficiența explicabilității rezultatelor generate de sistemele AI (în contextul în care explicabilitatea reprezintă ansamblul informațiilor care ajută oamenii să înțeleagă modul în care sistemele AI iau deciziile[8]) scade încrederea în modul de luare a deciziilor de către sistemele AI. Aspectele asupra cărora s-ar putea concentra politicile interne ar putea viza, în optica OCDE: 1. Obligația developerilor de a pune la dispoziție documente, instrucțiuni de utilizare și instrumente de explicare care să însoțească sistemele de AI folosite la locul de muncă; 2. Obligația angajatorilor și a angajaților de a dezvălui când utilizează sistemele AI la locul de muncă și în procesele de recrutare și să pună la dispoziția angajaților sau reprezentanților lor, rezultatele instrumentelor de explicare.

(ix) Lipsa răspunderii pentru erorile generate de AI este neclară în contextul în care sistemele AI se pot modifica în funcție de informațiile pe care le învăță astfel încât, în măsura în care apar erori, trebuie delimitat clar între (a) răspunderea developerilor, (b) răspunderea furnizorului de servicii AI și (iii) răspunderea utilizatorului. Deși în anumite țări, s-a încercat introducerea de mecanisme de promovare a răspunderii sau intervențiile umane în procesul de luare a deciziilor de către AI, aceste instrumente nu sunt suficiente. Pentru mai clara delimitare a răspunderii între ,,actorii” implicați, OCDE recomandă: 1. Instituirea unor coduri de etica/ofițer de etică sau chiar board de etică pentru supravegherea implementării și folosirii sistemelor AI în cadrul societăților; 2. Auditarea anterioară și posterioară implementării; 3. Supravegherea de către o componentă umană a deciziilor fundamentate pe AI care afectează drepturile sau siguranța angajaților, cu explicarea responsabilităților implicate; 4. Garantarea dreptului angajaților de a contesta deciziile automatizate; 5. Ghiduri pentru angajați și pentru susținerea IMM-urilor pentru asigurarea conformității și răspunderii aplicabile folosirii AI la locul de muncă, incluzând chiar standarde de auditare naționale sau internaționale.

(x) Provocările pentru dialogul social reprezintă reprezintă o zonă de riscuri unde efectele AI pot pozitive în situațiile în care angajații sunt consultați. Însă, în multe țări membre OCDE, existența unor contracte colective de muncă sau organisme reprezentative este din ce în ce mai redusă. Mai mult, există îngrijorarea că angajații se vor eschiva de la a-și asuma răspunderea pentru anumite decizii arătând că sunt rezultatul sistemelor AI, dar și îngrijorarea că datele colectate prin intermediul AI ar putea fi folosite pentru limitarea drepturilor angajaților de a se organiza. Nici apariția noilor modele de muncă la distanță și noilor modele de business nu facilitează dialogul între partenerii sociali.

În aceste condiții, OCDE recomandă: 1. Consultări și discuții cu managerii, angajații și reprezentanții lor/alte părți interesate cu privire la adoptarea AI la locul de muncă, luând în considerare situația națională și relațiile de muncă; 2. Dezvoltarea abilităților salariaților pentru folosirea AI și educația digitală pentru reprezentanții salariaților; 3. Sprijinirea partenerilor sociali în eforturile lor de a asigura reprezentativitatea către formele de lucru nereprezentate, de exemplu din lucrătorii pe platforme.

Uniunea Europeană încurajează dialogul social, sens în care există recomandări la nivelul uniunii cu privire la promovarea dialogului social în fiecare stat membru, iar răspunsurile statelor la aceste recomandări vor fi monitorizate de Comisia Europeană până în 07.12.2029[9]. De asemenea, proiectul de directivă privind lucrătorii pe platforme conține prevederi care încurajează dialogul social.

În România, la acest moment, angajaților digitali (lucrători pe platforme și nu numai) li se aplică regulile generale privind dialogul social. Astfel, Legea nr. 367/2022 a dialogului social care prevede obligativitatea negocierii contractului colectiv de muncă la angajații care au peste 10 angajați[10], inițiativa negocierii aparține oricăruia dintre partenerii sociali[11]. Cu toate acestea, sancțiunea pentru neînceperea negocierilor se aplică doar angajatorilor și constă în amendă de la 15.000 la 20.000 lei[12], deci, presiunea sancțiunii pentru încurajarea dialogului social este resimțită doar de angajator.

În loc de concluzie, voi sublinia că adoptarea AI la locul de muncă face parte din realitatea cotidiană, iar exploatarea cât mai sigură a avantajelor acestei tehnologii poate avea loc doar prin diminuarea unor riscuri (care existau și înaintea implementării AI la locul de muncă, dar care au crescut în intensitate din cauza volumului mare de informații care poate fi prelucrat prin intermediul AI). Or, pentru diminuarea acestor riscuri, este necesar un cadru legislativ adecvat, iar companiile, prin procedurile și procesele interne, ar trebui să asigure un nivel sporit de protecție față de minimul impus de reglementările care urmează să fie adoptate.

În perioada următoare vom asista la o ,,revoluție legislativă”, deoarece legislația existentă în toate ramurile de drept trebuie adaptată la noua realitate-  realitatea folosirii inteligenței artificiale.


[1] OECD 2024, USING AI IN THE WORKPLACE OPPORTUNITIES, RISKS AND POLICY RESPONSES https://www.oecd-ilibrary.org/docserver/73d417f9-en.pdf?expires=1711989849&id=id&accname=guest&checksum=2BAA396E8FAACB71061A5D8FB3368B18
[2] Nobel laureate in Economics Professor Christopher Pissarides argued that countries with strong social support for workers “can use AI beneficially to create good jobs and better lives”.  Countries such as “the US and China are way ahead in terms of preparedness for AI, but they dismally fail on social support. So, I would not say they create good jobs.” In https://ec.europa.eu/social/main.jsp?catId=89&furtherNews=yes&newsId=10712&langId=en
[3] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM:2021:762:FIN
[4] https://www.ibm.com/topics/ai-bias
[5] The Role Of Bias In Artificial Intelligence (forbes.com)
[6] Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (nist.gov), Artificial Intelligence Risk Management Framework (AI RMF 1.0) (nist.gov)
[7] https://www.ibm.com/topics/ai-bias
[8] https://c3.ai/glossary/machine-learning/explainability/ și https://www.xcally.com/news/interpretability-vs-explainability-understanding-the-importance-in-artificial-intelligence/
[9] Council Recommendation of 12 June 2023 on strengthening social dialogue in the European Union (europa.eu)
[10] Art. 97 alin. (1) din Legea nr. 367/2022 a dialogului social
[11] Art. 97 alin. (2) din Legea nr. 367/2022 a dialogului social
[12] Art. 175 din Legea nr. 367/2022 a dialogului social


Consilier juridic Daliana Popa

Citeşte mai mult despre , , , , , ! Pentru condiţiile de publicare pe JURIDICE.ro detalii aici.
Urmăriţi JURIDICE.ro şi pe LinkedIn LinkedIn JURIDICE.ro WhatsApp WhatsApp Channel JURIDICE Threads Threads JURIDICE Google News Google News JURIDICE

(P) JURIDICE.ro foloseşte şi recomandă SmartBill.

 
Homepage J JURIDICE   Cariere   Evenimente   Dezbateri   Profesionişti   Lawyers Week   Video
 
Drepturile omului
Energie
Fiscalitate
Fuziuni & Achiziţii
Gambling
Health & Pharma
Infrastructură
Insolvenţă
Malpraxis medical
Media & publicitate
Mediere
Piaţa de capital
Procedură civilă
Procedură penală
Proprietate intelectuală
Protecţia animalelor
Protecţia consumatorilor
Protecţia mediului
Sustenabilitate
Recuperare creanţe
Sustenabilitate
Telecom
Transporturi
Drept maritim
Parteneri ⁞ 
Specialişti
Arii de practică
Business ⁞ 
Litigation ⁞ 
Protective
Achiziţii publice
Afaceri transfrontaliere
Arbitraj
Asigurări
Banking
Concurenţă
Construcţii
Contencios administrativ
Contravenţii
Corporate
Cyberlaw
Cybersecurity
Data protection
Drept civil
Drept comercial
Drept constituţional
Drept penal
Dreptul penal al afacerilor
Dreptul familiei
Dreptul muncii
Dreptul Uniunii Europene
Dreptul sportului
Articole
Essentials
Interviuri
Opinii
Revista de note şi studii juridice ISSN
Note de studiu ⁞ 
Studii
Revista revistelor
Autori ⁞ 
Publicare articole
Jurisprudenţă
Curtea Europeană a Drepturilor Omului
Curtea de Justiţie a Uniunii Europene
Curtea Constituţională a României
Înalta Curte de Casaţie şi Justiţie
Dezlegarea unor chestiuni de drept
Recurs în interesul legii
Jurisprudenţă curentă ÎCCJ
Curţi de apel
Tribunale
Judecătorii
Legislaţie
Proiecte legislative
Monitorul Oficial al României
Jurnalul Oficial al Uniunii Europene
Flux noutăţi
Selected
Comunicate
Avocaţi
Executori
Notari
Sistemul judiciar
Studenţi
RSS ⁞ 
Publicare comunicate
Proiecte speciale
Cărţi
Condoleanţe
Covid-19 Legal React
Creepy cases
Life
Povestim cărţi
Poveşti juridice
Războiul din Ucraina
Wisdom stories
Women in Law

Servicii J JURIDICE   Membership   Catalog   Recrutare   Talent Search   Comunicare   Documentare   Evenimente   Website   Logo   Foto   Video   Partnership