Răspunderea civilă pentru prejudicii cauzate de AI și categoriile profesionale de muncă care sunt expuse riscurilor automatizării

Material susținut de Bogdan Hudișteanu, Founding Partner David, Avrǎmițǎ & Asociații

Dezvoltarea exponențială a inteligenței artificiale (AI) reprezintă una dintre cele mai mari provocări juridice ale secolului XXI. Dacă, în dreptul civil tradițional, răspunderea pentru prejudicii se întemeiază pe ideea vinovăției unei persoane — fie că este vorba despre o faptă proprie, despre fapta altuia sau despre răspunderea pentru lucruri — apariția entităților capabile de autonomie decizională modifică radical acest cadru conceptual. Inteligența artificială, prin capacitatea sa de a genera conținuturi noi creează o zonă gri între instrumentul pasiv și agentul autonom. Dreptul este astfel constrâns să răspundă la o întrebare fundamentală: cine răspunde atunci când inteligența artificială greșește?

În contextul actual al dezvoltării accelerate a inteligenței artificiale, se poate constata că sistemele bazate pe algoritmi avansați exercită o influență semnificativă asupra comportamentului și deciziilor oamenilor. Această influență nu este doar de natură informațională, ci și emoțională și psihologică, având potențialul de a modela percepții, convingeri și reacții personale. În anumite situații extreme, această presiune algoritmică, combinată cu vulnerabilitatea umană, a condus chiar la cazuri de sinucidere, fapt ce ridică serioase semne de întrebare cu privire la responsabilitatea juridică și morală a dezvoltatorilor și operatorilor acestor tehnologii.

Având în vedere principiile fundamentale ale dreptului, în special cele referitoare la protejarea vieții, demnității umane și sănătății mintale, se impune o intervenție normativă clară. Limitarea și reglementarea utilizării algoritmilor de inteligență artificială ar trebui să urmărească prevenirea abuzului de influență și garantarea faptului că tehnologia servește interesului public și binelui comun. AI trebuie utilizată ca instrument de progres și sprijin pentru oameni, nu ca factor de risc pentru integritatea psihologică sau pentru viața acestora.

În ceea ce privește răspunderea AI pentru asemenea situație observăm că în doctrina de specialitate s-au conturat mai multe direcții. Prima este cea a răspunderii producătorului. Conform principiilor consacrate de Directiva 85/374/CEE privind răspunderea pentru produsele defectuoase, producătorul răspunde pentru prejudiciile cauzate de defectele produsului său, fără a fi necesară dovedirea culpei. Aplicarea acestor reguli la sistemele de AI pare firească atunci când prejudiciul provine dintr-un defect de fabricație sau de proiectare. Totuși, problema devine complexă în cazul algoritmilor care se modifică autonom, pe baza învățării automate. În aceste situații, „defectul” nu mai poate fi imputat strict producătorului, ci apare ca un efect secundar al procesului de autoadaptare. Din acest motiv, numeroși autori susțin că regimul clasic al răspunderii pentru produse este insuficient pentru tehnologiile emergente.

O a doua direcție este cea a răspunderii utilizatorului, în calitate de operator sau supervizor al sistemului. Conform principiilor generale ale răspunderii civile delictuale (art. 1349 și urm. Cod civil), persoana care are controlul asupra unui instrument ce produce un prejudiciu poate fi ținută răspunzătoare pentru lipsa de diligență în supravegherea acestuia. În cazul AI, această regulă ar presupune ca utilizatorul să verifice funcționarea sistemului, să se asigure că datele de intrare sunt corecte și să nu lase deciziile esențiale complet în seama algoritmilor. Totuși, gradul ridicat de opacitate al modelelor de AI (așa-numitul „black box problem”) face dificilă evaluarea responsabilității utilizatorului, mai ales atunci când acesta nu are cunoștințele tehnice necesare pentru a înțelege mecanismele decizionale interne ale sistemului.

A treia viziune, din ce în ce mai susținută la nivel european, răspunderea pentru prejudicii cauzate de AI ar trebui să fie obiectivă, adică independentă de vinovăție. Argumentul principal este acela al riscului creat: cel care introduce pe piață sau utilizează o tehnologie cu potențial de a produce prejudicii ar trebui să suporte consecințele, chiar dacă a acționat cu toată prudența. Această abordare este deja consacrată în Codul civil român (art. 1375), pentru răspunderea privind lucrurile sau animalele, și ar putea fi extinsă la sistemele de AI, asimilate unor „lucruri”. În acest sens, s-ar putea crea un regim special de asigurare obligatorie pentru sistemele de AI de înalt risc, similar cu cel existent în materia autovehiculelor.

Unii teoreticieni merg chiar mai departe, propunând crearea unei personalități juridice electronice pentru formele avansate de AI. Astfel, entitățile algoritmice ar putea fi considerate, într-o anumită măsură, subiecte de drept limitate, capabile să dețină un patrimoniu propriu destinat despăgubirii victimelor. Această idee, deși din punct de vedere teoretic se poate pune în aplicare, ridică probleme etice și juridice majore: responsabilitatea implică conștiință, intenție și discernământ — calități pe care o mașină nu le poate avea. Prin urmare, majoritatea curentelor doctrinare resping, cel puțin deocamdată, această soluție, preferând consolidarea răspunderii umane și instituirea unor mecanisme de compensare colectivă.

Pe plan normativ, Uniunea Europeană a făcut pași importanți în direcția reglementării acestei problematici. Regulamentul privind Inteligența Artificială (AI Act), adoptat în 2024, clasifică sistemele de AI în funcție de gradul de risc și impune cerințe stricte privind siguranța, transparența și supravegherea umană. În paralel, Propunerea de Directivă privind răspunderea civilă pentru AI urmărește să simplifice sarcina probei pentru persoanele prejudiciate, permițându-le să invoce o prezumție de cauzalitate între comportamentul sistemului și prejudiciul suferit. România va trebui să transpună aceste norme în dreptul intern, adaptând dispozițiile Codului civil la noile realități tehnologice.

Astfel, dreptul răspunderii civile se află într-o transformare profundă. Modelul clasic, centrat pe vinovăția persoanei, tinde să fie înlocuit de un model bazat pe gestionarea riscului tehnologic și protecția victimelor. Provocarea viitorului constă în a menține echilibrul între stimularea inovației și garantarea unui nivel adecvat de siguranță juridică pentru cetățeni.

În ceea ce privește țările europene care au ales să recurgă la automatizarea sistemului juridic, evidențiem Estonia, pionierul digitalizării administrației publice și al e-justiției în Europa, însă din punct de vedere juridic, proiectul de „judecător-robot” nu reprezintă o delegare a funcției jurisdicționale către un algoritm, ci o automatizare parțială a procedurilor civile de mică valoare. În sistemul eston, competența de soluționare a litigiilor sub 6.400 euro este reglementată printr-un mecanism de ordin de plată electronic (e-toimik), instituit în baza Codului de procedură civilă eston și gestionat de Ministerul Justiției. Acest sistem permite depunerea online a cererilor, verificarea electronică a identității și generarea automată a unei propuneri de soluție de către un algoritm, care nu produce efecte juridice definitive fără validarea unui magistrat uman.

Și în China, sistemul judiciar a demarat, prin cadrul Supreme People’s Court (SPC), o „construcţie de instanţe inteligente” („smart courts”) care înglobează tehnologiile de tip inteligenţă artificială. Din perspectivă juridică, această tendinţă introduce posibilitatea automatizării unor etape procesuale – cum ar fi înregistrarea electronică, verificarea identităţii şi chiar asistenţa la redactarea hotărârilor – însă ridică concomitent provocări semnificative privind garanţiile procedurale: respectarea dreptului la apărare, motivarea hotărârilor, posibilitatea de recurs, transparenţa algoritmică şi protecţia datelor personale. În absenţa unui cadru normativ riguros care să definească limitele intervenţiei AI-ului, există riscul ca deciziile să devină mai puţin susceptibile de control uman, punând în discuţie principiul independenţei judiciare şi egalităţii părţilor.

În Singapore, sistemul judiciar a adoptat o strategie graduală de integrare a instrumentelor de inteligenţă artificială, în special în cadrul Small Claims Tribunal (SCT), pentru a sprijini părţile neasistate de avocat. De exemplu, s-a semnat un Memorandum of Understanding cu o companie de tehnologie („Harvey.AI”) şi s-a introdus un instrument de generare automată de traduceri şi sumarizări pentru litigii de mică valoare. Din punct de vedere juridic, abordarea este una prudentă: AI nu decide în locul instanţei, ci sprijină accesul la justiţie, viteza procedurilor şi înţelegerea de către litigant. Garanţia procedurală este păstrată astfel: decizia rămâne în mâna unei autorităţi umane, AI fiind utilizată doar ca instrument de susţinere.

În Australia, utilizarea inteligenţei artificiale în cadrul procedurilor judiciare este puternic reglementată, iar instituţiile de supraveghere profesională au emis ghiduri stricte privind modul în care generative AI (Gen AI) poate fi utilizată de către avocaţi şi părţi. De exemplu, în statul New South Wales a intrat în vigoare de la 3 februarie 2025 „Practice Note SC Gen 23 – Use of Generative Artificial Intelligence” care limitează utilizarea AI în materiale depuse instanţei (declaraţii de martori, rapoarte de expertiză) şi impune ca orice document generat de AI să fie supus verificării riguroase.  Astfel, acest cadru reflectă o recunoaştere că inteligenţa artificială prezintă riscuri semnificative pentru integritatea procesului (cum ar fi speţe inexistente, erori de fapte) şi pentru principiile de răspundere profesională şi etică. Instanţele australiene au subliniat că utilizarea AI nu scuteşte practicianul de obligaţiile sale – de diligenţă, verificare, respectarea confidenţialităţii şi evitarea inducţiei în eroare a instanţei.  Prin urmare, modelul australian serveşte ca exemplu de „tehnologie cu limitări procedurale stricte”, unde adoptarea AI este permisă, dar numai în măsura în care garanţiile procesuale fundamentale rămân nealterate.

În continuare, în ceea ce privește profesiile expuse riscurilor automatizării inteligența artificială nu transformă doar economia și tehnologia, ci și esența muncii umane. Automatizarea inteligentă, înlocuirea proceselor repetitive cu algoritmi și integrarea roboticii în producție modifică radical raporturile de muncă tradiționale. În era AI, contractul individual de muncă, principiul subordonării și conceptul de „loc de muncă stabil” sunt supuse unei reevaluări profunde. Din perspectivă juridică, se conturează o dublă tendință: pe de o parte, dispariția unor profesii; pe de altă parte, apariția unor forme noi de muncă, centrate pe competențe digitale, supervizare algoritmică și colaborare om-mașină.

Prin urmare, considerăm că răspunderea pentru utilizarea AI trebuie să rămână atribuită exclusiv factorului uman și instituțional, chiar dacă procesul decizional poate fi asistat de un sistem automatizat. Rolul AI trebuie conceput ca un instrument de suport – un „asistent judiciar digital” – și nu ca o entitate autonomă cu putere decizională deplină. Pentru a asigura protecția omului, legislațiile naționale și internaționale trebuie să prevadă: transparența algoritmică, posibilitatea revizuirii umane, trasabilitatea datelor și delimitarea clară a răspunderii civile, administrative și penale pentru prejudiciile cauzate de erori tehnologice.

Cele mai expuse riscului de automatizare sunt activitățile repetitive și standardizate, care pot fi ușor formalizate în termeni algoritmici. În această categorie se înscriu operatorii de date, casierii, lucrătorii administrativi sau funcționarii din domenii unde sarcinile sunt predictibile. De asemenea, sectorul transporturilor și al logisticii se confruntă cu o transformare profundă: vehiculele autonome, dronele și sistemele de gestionare automatizată a depozitelor reduc nevoia de forță de muncă umană. În domeniul serviciilor financiare, AI a devenit deja capabilă să analizeze dosare de credit, să detecteze fraude sau să efectueze tranzacții, înlocuind o parte semnificativă din activitățile contabile și analitice. În sectorul juridic, spre exemplu, IA este utilizată pentru redactarea de contracte standard, analiză de jurisprudență sau evaluare de riscuri. Deși aceste instrumente pot crește eficiența, ele pot reduce cererea pentru pozițiile de debut sau de execuție. Totuși consider că rolul avocatului, al judecătorului sau al procurorului rămân esențiale, deoarece presupun raționament valoric, etic și interpretativ, dimensiuni inaccesibile algoritmilor.

Concluzie

Atât în materia răspunderii civile, cât și în domeniul raporturilor de muncă, inteligența artificială obligă dreptul să își depășească propriile limite conceptuale. Dacă, până acum, normele juridice erau concepute pentru a regla relațiile între persoane, astăzi acestea trebuie să reglementeze interacțiuni între oameni și sisteme algoritmice.

Astfel, inteligența artificială este benefică și necesară în sistemul juridic modern, dar numai sub condiția existenței unor limite normative ferme, care să garanteze că tehnologia servește omului — nu îl înlocuiește.