Urgența încheierii unui tratat internațional privind utilizarea inteligenței artificiale în domeniul militar

Autor: Prof. univ. dr. Mircea DUTU, Director emerit al Institutului de Cercetări Juridice al Academiei Române, Președintele Universității Ecologice din București

În urmă cu un an, la 1 noiembrie 2023, Prima Comisie (pentru dezarmare și securitatea internațională) a Adunării generale a ONU a adoptat (cu votul a 164 state, 5 contra și 8 abțineri) întâia rezoluție privind armele autonome, subliniind „necesitatea urgentă pentru comunitatea internațională de a răspunde provocărilor și preocupărilor ridicate de sistemele de arme automate. După 10 ani de discuții internaționale și față de evoluțiile tehnologice rapide, adoptarea respectivei rezoluții constituia un pas înainte, deschizând calea instaurării unui cadru juridic menit să garanteze un control uman semnificativ, privind recurgerea la forță, chiar dacă în acest fel nu s-a mers prea departe în privința angajării unor negocieri intense pe acest subiect, însă documentul întărea încrederea internațională și semnala că o acțiune politică urgentă trebuie întreprinsă pentru a ne pune la adăpost de riscurile grave generate de implicarea noilor tehnologii, în frunte cu aplicațiile IA în domeniu.

Prezentată de Austria și de alte 43 de state (coinițiatoare), rezoluția recunoștea „dezvoltarea rapidă de tehnologii noi și emergente” și făcea referință la „provocările serioase și preocupările pe care noile aplicații tehnologice în domeniul militar, inclusiv cele legate de inteligența artificială și autonomia sistemelor de arme le ridică, deopotrivă, din punct de vedere umanitar, juridic, securitar tehnologic și etic”. Se exprimau, de asemenea, îngrijorări referitoare la „consecințele negative posibile și impactul sistemelor de arme automate asupra securității mondiale și stabilității regionale și internaționale, inclusiv riscul unei curse a armamentelor emergente, coborând pragul conflictelor și proliferării, inclusiv pentru actorii nestatali”. Rezoluția cerea Secretarului general al ONU să pregătească un raport care să reflecte punctele de vedere ale statelor membre și observatoare asupra sistemelor de arme autonome și mijloacele de a releva provocările și preocupările ridicate din punct de vedere umanitar, juridic, securitar, tehnologic și etic și asupra rolului urmărilor în recurgerea la forță. S-a prevăzut ca pe ordinea de zi a forumului mondial al statelor să se înscrie un punct intitulat „Sisteme de arme letale autonome”, furnizând o platformă suplimentară în cadrul ONU care să permită statelor să urmărească acțiunile pertinente.

În același context, în octombrie 2023, Secretarul general al ONU și președintele Comitetului internațional al Crucii Roșii au adoptat un apel conjugat pentru un nou drept internațional privind armele autonome și, în acest sens la încheierea, până în 2026 a unui instrument juridic (obligatoriu), sprijinindu-se pe o declarație comună a 70 de state. Ca un prim rezultat al acestor demersuri, la 22 decembrie 2023 Adunarea generală a ONU adopta rezoluția 78/241 privind Sisteme de arme letale autonome (cu 150 de voturi pentru, 4 contra și 11 abțineri) prin care se recunoșteau „mizele mari și viile îngrijorări pe care le ridică… utilizarea noilor aplicații tehnologice în domeniul militar, inclusiv cele legate de inteligența artificială și autonomia sistemelor de arme”. Documentul sublinia pericolele reprezentate de suprimarea controlului uman în recurgerea la forță, iar largul sprijin de care s-a bucurat adoptarea sa arăta că guvernele sunt gata să acționeze așa încât, în termenul cel mai scurt, să se treacă la negocierea unui tratat internațional în materie. Unele sisteme de arme autonome există de mai mulți ani, dar tipurile, durata funcționării, amploarea geografică și mediul în care funcționează sunt limitate. În același timp, progresele tehnologice stimulează dezvoltarea sistemelor de arme autonome fără control uman semnificativ, delegându-se decizii de viață și de moarte mașinilor, care să determine unde, când ori contra căror adversari ele vor fi utilizate, mai degrabă decât un operator uman. Se cerea Secretarului general al ONU să solicite avizul statelor și al altor părți interesate asupra mijloacelor de a răspunde provocărilor și preocupărilor ridicate de sistemele de arme autonome „din punct de vedere umanitar, juridic, securitar, tehnologic și etic” și de a reflecta aceste punct de vedere într-un raport prezentat Adunării generale a ONU. În fine, se prevedea înscrierea unui punct pe ordinea de zi a sesiunii acesteia din 2024 intitulat Sisteme de arme letale autonome, oferind astfel o platformă de discuție statelor care doreau să continue acțiunea în vederea elaborării unui răspuns politico-juridic acestei probleme.

1. O necesară dezbatere teoretică. Recursul la noile tehnologii în conflictele armate este în plină ascensiune în condițiile progreselor fulgurante din domeniul inteligenței artificiale și al roboticii. Printre atari noi instrumente de război, „sistemele de arme letale autonome” ori „roboții ucigași” cu denumirile lor utilizate în mass-media, fac obiectul unei ample dezbateri, inclusiv din perspective juridice.

Printre lucrările recente consacrate subiectului se remarcă volumul La Guerre à l’ère de l’intelligence artificielle (PUF, Paris, 2024) datorat șefei departamentului de geopolitică al Institutului Francez de Relații Internaționale (IFRI), dr. Laure de Roucy-Rochegonde.

Într-un articol cu titlul sugestiv Comment „l’intelligence artificielle” conduirait la guerre publicat în urmă cu aproape patru decenii (Le Monde Diplomatique, septembrie 1985), analistul D. Desbois considera că anul 1983 ar fi reprezentat punctul de plecare spre această „nouă frontieră” a puterii de calcul a ordinatoarelor, prin crearea succesivă a Microelectronics and Computer Technology Corporation (MCC) în SUA, apoi lansarea de către Comisia Comunităților Europene a programului ESPRIT (European Strategic Program for Research in Information Technology), ale căror roluri erau acelea de coordonare a eforturilor de cercetare și de a centraliza rezultatele în scopul de a anunța programele aflate în lucru la Institute for New Generation Computer Technology (ICOT) sub tutela ministerului japonez al industriei și comerțului internațional (MITI). Cu precizarea că în SUA ministerul apărării dăduse semnalul mobilizării partenerilor industriali prin intermediul agenției sale specializate în programe de cercetare, DARPA publicând în octombrie 1983 un proiect intitulat „informatică strategică”, elaborat de Information Processing Techniques Office (IPTO) devenit principalul „sponsor” al laboratoarelor industriale și universitare în materie de informatică. La acele începuturi anunțate, efortul în privința componentelor de soft era organizat în jurul „inteligenței artificiale” și se fonda, în particular, pe perspectivele deschise printr-o utilizare „largă și intensivă” a sistemelor experte. Se arăta, în același timp, că viitorul software trebuia să doteze mașinile de a cincea generație cu funcții echivalente capacităților intelectuale ale umanilor, precum înțelegerea limbajului natural, viziunea, cuvântul și diverse tipuri de raționament autonom. În concret se vorbea, de exemplu, pentru armata terestră de o nouă clasă de vehicule capabile să evolueze într-un mediu ostil pe baza unei lungi autonomii a mișcării și raționamentului, în privința aviației, un „copilot” care să poată asista personalul navigant, adesea debordat de masa de informații în timpul deciziilor critice de angajare a aparatelor de vânătoare ori bombardierelor și, în fine, în zona marinei de un sistem de conduită a câmpului de luptă capabil să ia în calcul date neverificate pentru a prezice apariția evenimentelor probabile, precum și să elaboreze strategii de acțiune și scenarii, pe baza unei învățări, explicitând opțiunile la care prezidează logica deciziilor.

Respectivele trei aplicații, care imaginau vehicule uscat-aer-mare complet autonome și capabile să îndeplinească misiuni complexe de recunoaștere, de atac și de apărare la mare distanță trebuiau să ilustreze puterea tehnologiei și să catalizeze procesul de creare tehnică.

Totuși, primele anunțuri privind integrarea IA în sistemele de armament datează cu puțin înainte de 2010; în 2022 se estima că statele cele mai avansate în materie erau SUA și China și într-o măsură mult mai mică și Federația Rusă. Primele exemplificări concrete ale „armelor IA” aveau să se producă în cadrul conflictelor militare în curs, cel din Ucraina (declanșat în 2022) și, respectiv, din Orientul Mijlociu (2023).

2. Implicații operative. Din punct de vedere operațional, asemenea tehnologii ameliorează viteza, anduranța și coordonarea pe câmpul de luptă, ceea ce reprezintă un avantaj decisiv. Ele permit, de asemenea, o reducere a costurilor operațiunilor respective, precum și o mai bună folosire a capacităților umane, permițând, în fapt, unui stat să-și apere interesele sale fără a sacrifica și nici măcar a risca vieți. Într-un context de reducere a formatului armelor occidentale și de redusă toleranță a pierderilor umane, aceste arme emergente se dovedesc deosebit de atractive. În consecință, cum sublinia un specialist chinez al domeniului, „lupta fără oameni e pe cale a se afirma progresiv ca viitor al progresului”. Totuși, ideea nu întrunește unanimitateși nu puțini sunt militarii care contestă o atare perspectivă; potrivit unui studiu realizat în 2013 în rândul americanilor, 55% din persoanele intervievate se opuneau tendinței în favoarea utilizării armelor în întregime autonome. Această opinie era reprezentată în mod omogen la persoane de genuri, vârste și convingeri politice diferite. Membrii personalului militar în serviciul activ, a căror înțelegere a realității conflictelor armate e mai directă și mai sofisticată, constituiau în același timp grupul care respingea în modul cel mai ferm aceste arme, respectiv 73% dintre ei se opuneau ideii. De altfel, istoria dezvoltării de arme autonomizate în armata americană cunoaște mai multe exemple de programe anulate în pofida investițiilor considerabile consacrate. Într-un raport pe această temă se identifica chiar o „reticență cultuală față de încredințarea deciziilor de atac algoritmilor și softurilor”. Cum s-ar explica, atunci, această rezistență la armele autonome din partea profesioniștilor folosirii forței, care sunt militarii? Emergența acestor sisteme trebuie văzută într-o dorință mai largă de prezervarea umanului a efectelor forței. Aceasta s-ar explica prin trei tendințe principale. Prima, multiplicarea angajamentelor exterioare și de mai redusă importanță – adică unele ce nu ating în mod direct interesele vitale ale statelor angajate în conflict – fiind mai dificil faptul de a cere combatanților „sacrificiul suprem”. Dacă un soldat e gata să moară pentru patria sa atunci când aceasta e amenințată, el nu e în mod necesar dispus să facă aceasta pentru intervenții care nu reprezintă un risc existențial pentru stat. Pe de altă parte, pentru opinia publică e mai puțin tolerabil de a vedea murind tinerii pentru cauze îndepărtate și adeseori rău înțelese. Apoi, apariția noilor tehnologii din ce în ce mai sofisticate generează o „credință într-un război fără aléa, unde putem distinge obiecte automate sacrificate nerecuperabile de obiectele umane apărate”. Odată cu armele autonome un nou prag tehnologic e pe cale să fie depășit, care lasă să se întrevadă un orizont în care umanul ar putea să fie total retras din câmpul de luptă, nu numai din mediile periculoase, ci și din fața combatanților adverși pe un teritoriu clasic. În fine, în al treilea rând, reducerea pierderilor printre militari nu e preconizată numai ca o miză morală ci, totodată, ca o chestiune de prudență. Și aceasta, având în vedere atât eficiența militară, pierderile umane compromițând în mod logic capacitatea forțelor de a rezista inamicului, cu cât costul ridicat al formării militare în armatele profesioniste face pierderea unui soldat deosebit de costisitoare din punct de vedere economic, cât și că practicienii forței, la rândul lor, se dovedesc mai puțin entuziaști față de această tendință de autonomizare. Organizațiile militare se dovedesc, în mod tradițional, mai puțin grăbite în a adopta inovațiile tehnologice, în special atunci când acestea sunt susceptibile să modifice în profunzime modul în care sunt duse războaiele, iar autonomia nu face excepție de la regulă. Și aceasta întrucât în starea actuală a lucrurilor, dacă potențialul său pentru apărare aeriană, și sarcini plictisitoare, ingrate ori periculoase este în mod larg admis, există încă obiecție asupra integrării sale în funcțiile critice ale sistemelor de arme, în special pentru operațiunile de luptă. Dacă militarii nu au o aversiune naturală față de schimbare, totuși, așa cum se susține frecvent, orice schimbare într-un context militar e un risc. O nouă tehnologie cunoaște, în mod necesar, disfuncționalități atunci când e integrată și adoptarea sa necesită o perioadă de învățare și de adaptare care în timpul unui conflict poate să fie o sursă de vulnerabilitate ori de reducere a eficienței. În acest fel, personalul militar tinde să prefere tehnologiile mai vechi, chiar dacă le sunt disponibile instrumente mai recente și cu potențial mai eficace. În fapt, ofițerii preferă adesea să se sprijine pe o tehnologie pe care știu să o utilizeze și în care au încredere, mai degrabă decât pe una de care se teme de înfrângere la un moment crucial. Așadar, prudența și conservatorismul instituției militare față de noile tehnologii reprezintă un fenomen istoric bine documentat și relativ cunoscut. Rațiunile care, în trecut, au motivat opoziția la trecerea la puterea aeriană, la navele pe abur și la carele de asalt nu sunt foarte diferite de cele care explică scepticismul și rezistența față de autonomia de astăzi.

3. Provocări morale. În același context complicat se manifestă și o altă dimensiune a problemei, cea de ordin moral. Încă în 2017, generalul american Paul Selva, pe atunci adjunctul șefului statului major interarme, declara că el „nu consideră că ar fi rezonabil să se dea roboților sarcina de a decide dacă luăm o viață umană sau nu”. Există deci un puternic stigmat moral la ideea ca mașinile să poată să selecționeze și să deschidă focul asupra țintelor umane, fără ca un operator să ia decizia. Unii ofițeri apreciază emergența armelor autonome nu numai ca incompatibilă cu paradigmele operaționale cu care sunt obișnuiți, dar și ca punând în pericol etica lor profesională. Autonomia e uneori văzută de militari ca o amenințare – chiar o insultă – pentru identitatea lor profesională căci, potrivit opiniei lor, ar face, progresiv, ca meseria lor să apară ca mai puțin „nobilă” și ar face să fie depășite competențele și responsabilitățile lor fundamentale. Precedentul dronelor armate ilustrează foarte bine o atare idee. Numai piloții de vânătoare continuă să se opună adoptării de vehicule aeriene teleportate. O anchetă asupra atitudinii piloților USAir Force față de drone a relevat că identitatea lor profesională era atât de intersectată cu actul de a zbura încât aceștia ar prefera mai degrabă să părăsească serviciul decât să piloteze o dronă! În plus, contractul moral pe care se bazează războiul e pus sub semnul întrebării de aceste mijloace de luptă dezumanizate. Desigur, moralitatea războiului e prin esența sa paradoxală; în timp ce statele se află sub o obligație moral-juridică de a minimaliza riscurile pentru soldații lor prin crearea de „situații asimetrice” spre a domina adversarul, această asimetrie pune în pericol „permisul de a ucide” acordat soldaților, care se întemeiază pe legitimitatea apărării reciproce. Se avansează ideea că acest drept e astfel concedat combatanților care se apără ei înșiși de amenințarea adusă de combatanții inamici. Fiecare reprezintă un risc pentru altul, având dreptul de a se proteja, mergând la moarte dacă e necesar. Dreptul de a ucide se bazează prin consecință pe faptul că toți participanții sunt expuși la un risc mortal în luptă. E rațiunea pentru care mulți autori se îngrijorează de impactul pe care armele autonomeîl poate avea asupra soldaților: modificarea dreptului de a ucide prezintă, în consecință, riscul de a-și vedea valorile lor războinice că se erodează.

Această schimbare de paradigmă e susceptibilă să inducă ceea ce un autor denumea și descria precum o „criză a etosului militar”. Fără posibilitatea sacrificiului suprem, care fondează eroismul, pe ce valori s-ar putea sprijini funcția militară?

4. Dimensiuni juridice. Ideea de a vedea o mașină care să ia viața unei ființe umane este, în consecință, deosebit de tulburătoare pentru că atunci când soldatul ucide el recunoaște, chiar dacă aceasta în mod paradoxal, umanitatea victimei sale. El își identifică adversarul ca o altă ființă umană, chiar dacă aceasta reprezintă o amenințare pentru el. Pentru un timp foarte scurt ei se întâlnesc, afirmându-și astfel în mod reciproc existența și umanitatea lor. Dimpotrivă, atunci când un robot trage asupra unei persoane, această întâlnire nu are loc; umanitatea victimei este deci negată sau, în orice caz, nu primește recunoașterea pe care o merită. În acest fel opozanții armelor autonome avertizează asupra unui risc de dezumanizare a războiului, dincolo de simpla retragere a omului de pe câmpul de luptă. Această viziune negativă a tehnologiei se bazează pe ideea că dacă vizează inițial umanul, ajunge a se transforma într-un răspuns fasonat de tehnologie. Unii denunță în acest sens apariția unui „război fără virtuți” în care curajul, onoarea, camaraderia ori loialitatea ar fi aneantizate prin sosirea roboților pe teatrul de operațiuni.

În avizul său asupra integrării autonomiei sistemelor de arme, Comitetul de etică al armatei franceze nota în acest sens că folosirea acestora de forțele armate ale Hexagonului „ar aduce atingere demnității soldaților francezi și eticii militare”. Se trăgea un semnal de alarmă asupra riscurilor în perceperea de către militarii înșiși a operațiunilor militare și a legitimității lor. În fine, cum anticipa Carl von Clausewitz în tratatul său „Despre război”, orice metodă ce ar furniza planuri de război și de campanie fixe și ieșite de-a gata dintr-o mașină ar trebui să fie respinse fără condiții.

Din punctul de vedere al dreptului internațional umanitar în vigoare, asemenea evoluții ridică numeroase probleme de acceptabilitate și de conformare. La nivelul regulilor fundamentale, mai întâi potrivit principiului precauției e nevoie ca, în caz de conflict, civilii să fie puși la adăpost înainte de a se ținti un obiectiv; apoi, imperativul distincției între civili și militari prezintă cerințe particulare în atari situații; nu în ultimul rând, principiul proporționalității, conform cu care „lovitura nu trebuie să fie excesivă în raport cu avantajul concret și direct așteptat”, ridică aspecte specifice de respectare a cerințelor sale.

4.1. Necesitatea controlului uman. Dincolo de aprecierile de ordin tehnico-politic, este de domeniul evidenței că armele autonome reprezintă o amenințare deosebit de gravă și controlul asupra lor o prioritate, inclusiv și mai ales din perspectiva reglementării juridice. După mai bine de un deceniu de dezbateri și negocieri în cadrul ONU nu s-a ajuns la un acord privind interzicerea armelor letale autonome. Dreptul internațional umanitar cere ca militarii să facă distincție între combatanții înarmați și civili și să le aplice tratamente și reguli diferite. Printre tezele avansate în acest context a fost și aceea ca un actor uman să facă parte din ciclul decizional, înainte ca o armă să fie lansată. În același timp, în anumite împrejurări, cum ar fi apărarea împotriva rachetelor care se apropie, nu există timp pentru o intervenție umană. Deoarece contextul e important, se impune astfel să se definească strict în codul de programare ce pot și ce nu trebuie să facă armele. Cu alte cuvinte, ar trebui să existe un om „deasupra buclei”, mai degrabă decât „în buclă” (referire la modul de luare a deciziilor strategic-militare numit „bucla OODA” (Observă, Orientează-te, Decide și Acționează) după cum sugerează unii din specialiștii domeniului. Cu precizarea că nu e vorba doar de o chestiune speculativă, așa cum o arată deja experiențele concrete. Așa, de exemplu, în războiul din Ucraina, rușii au bruiat semnalele forțelor armate ucrainene, obligându-le să-și programeze dispozitivele spre a lua decizii finale în mod autonom cu privire la momentul în care să tragă. Se apreciază că unul dintre cele mai mari pericole sunt legate de utilizarea aplicațiilor IA în războiul biologic sau în cadrul acțiunilor teroriste. La momentul în care, prin tratat internațional în 1972 și ținând seama de nivelul de dezvoltare tehnologică de atunci s-a convenit să se interzică armele biologice, convingerea generală era aceea că astfel de dispozitive nu sunt utile, din cauza riscului de „detonare” în propria tabără. Dar, cu ajutorul biologiei sintetice, a devenit posibilă dezvoltarea unei arme care să distrugă selectiv un anumit grup, și nu pe un altul. Referitor la terorism, o persoană de acest gen care are la dispoziție un laborator și ar dori să ucidă, pur și simplu, cât mai mulți oameni cu putință – așa cum a făcut cultul apocaliptic Aum Shinrikyo în Japonia, în 1995 – s-ar putea folosi IA pentru a dezvolta un virus contagios. În privința reglementării, una prin excelență internațională, s-a propus ca model, cu adaptările necesare, cea existentă în domeniul tehnologiei nucleare, respectiv tratatul de neproliferare din 1968, cu sistemul său de inspecții periodice din partea AIEA a programelor energetice naționale pentru confirmarea utilizării sale exclusiv în scopuri pașnice. De asemenea, se fac trimiteri și la acordul din 1978 privind instituirea de restricții în exportul de instalații și informații tehnice critice, reglatori care au asigurat până acum un anumit control și o siguranță în folosirea energiei nucleare. Un atare precedent ar sugera câteva posibile perspective pentru situația IA, chiar dacă între cele două tehnologii există diferențe evidente. Desigur, progresul tehnologic se desfășoară mult mai rapid decât înaintează rezultatele concrete ale negocierilor și se pot stabili reglementări juridice pertinente.

4.2. Imperativul unei reglementări urgente și perspectivele adecvate. Este de domeniul evidenței că proliferarea „roboților ucigași” constituie o amenințare și pentru dreptul internațional umanitar și protecția civililor, ceea ce presupune ca problema să fie reglementată printr-un tratat internațional adecvat. Așadar, armele automate sunt sisteme care, odată activitate, au capacitatea de a selecționa o țintă și a angaja o forță letală numai grație analizei captatorilor, fără intervenție umană. Ele ridică chestiuni fundamentale de ordin etic, umanitar, juridic, operațional, moral și securitar. Perspectiva utilizării și proliferării lor devine o amenințare serioasă, care nu mai poate fi ignorată și impune intervenția dreptului. Și aceasta întrucât, de lege lata, e mai mult decât incert că armele automate ar avea capacitatea de a respecta legile războiului, în particular atunci când e vorba de a distinge combatanții de necombatanți, ori de a determina dacă daunele civile anticipate ale unui atac sunt proporționale avantajului militar scontat, o decizie care nu poate fi luată decât de la caz la caz și care implică judecata umană. Civilii riscă să plătească un preț enorm. În plus, în caz de nerespectare a dreptului internațional, va fi foarte dificil din punct de vedere juridic, chiar injust, de a angaja răspunderea pertinentă a operatorilor umani pentru acțiunile întreprinse de sistemele de arme autonome care nu puteau nici să le prevadă și nici controla. Tocmai spre a face totul spre a se evita să se întâmple ceea ce experții în materie și organizațiile societății civile avertizează, s-a inițiat ca acțiune preventivă de urgență interzicerea și reglementarea sistemelor de arme autonome.

Conflictele militare în desfășurare ilustrează în mod dramatic cum războaiele se digitalizează și accelerează; în Orientul Mijlociu armata israeliană utilizează sisteme de țintire asistate de IA „Gospel” și „Lavender”; în Burkina Faso și în Etiopia se recurge la drone armate cu bombe și alte muniții ghidate prin laser. În Ucraina, Nagorno-Karabah și în Libia sunt utilizate munițiile Zombi. Asemenea investiții militare în autonomie și alte tehnologii emergente antrenează omenirea pe o pantă glisantă, din ce în ce mai periculoasă. În trecut, statele au acționat în mod concertat pentru a interzice armele chimice și biologice, laserele oarbe, minele antipersonal și armele cu muniție în dispersie. Tratatele privind dezarmarea (umanitară) au condamnat orice utilizare a acestor arme de către orice actor și în toate împrejurările. Chiar statele nesemnatare ale acestor documente au sfârșit aliniindu-se unor atari reguli, punând capăt utilizării lor ori reducându-le drastic, salvând astfel numeroase vieți civile.

Începând cu 2013, provocările ridicate de armele automate fac obiectul dezbaterilor internaționale, mai întâi în cadrul Comisiei pentru drepturile omului a ONU de la Geneva (înlocuită apoi de Consiliul drepturilor omului), apoi în cadrul Convenției privind interzicerea sau limitarea folosirii anumitor categorii de arme clasice care ar putea fi considerate ca producând efecte traumatice excesive sau care ar lovi fără discriminare, încheiată la New York la 8 aprilie 1982 (ratificată de România prin Legea nr. 40 din 24 mai 1995) [CCAC]. Astăzi, în condițiile regulii consensului, o minoritate de state, printre care Federația Rusă și India, blochează propunerile vizând negocierea unei noi reglementări internaționale privind sistemele automate în cadrul CCAC. Pentru ieșirea din impas, Austria și alte țări au propus discutarea problemei în cadrul Adunării generale a ONU, un forum mondial ce include mai multe state decât statele-părți la Convenția privind unele arme clasice. Acest cadru permite, totodată, tratarea unor chestiuni mai largi relative la drepturile umane, la proliferare, securitate și alte mize ridicate de armele autonome și în plus respectarea dreptului războiului. Progresele înregistrate într-un atare context vor fi mult mai puțin susceptibile să fie blocate de un număr restrâns de state care se opun oricărei reglementări în domeniu.

Așadar, Adunarea generală a ONU a reprezentat cadrul capabil de a oferi ocazia avansării negocierilor în vederea încheierii unui tratat internațional care să răspundă numeroaselor preocupări referitoare la sistemele de arme automate; față de pericolele indicate de oamenii de știință, de juriști, de organizațiile de apărare a drepturilor omului, precum și de urgența de a opri automatizarea violenței în războaie și în afara lor, protecția civililor și fixarea de repere juridice ferme și pertinente devin o prioritate absolută.

Într-un raport publicat la 6 august 2024, Secretarul general al ONU a reiterat apelul său față de statele membre în vederea încheierii până în 2026 a unui nou tratat internațional care să „interzică sistemele de arme care funcționează fără control ori supervizare umană și a căror utilizare e incompatibilă cu dreptul internațional umanitar”. Un atare acord ar trebui să reglementeze toate celelalte tipuri de arme autonome.

Documentul reflectă 58 de contribuții provenind din 73 de țări, precum și alte 33 contribuții aparținătoare Comitetului internațional al Crucii Roșii și organizațiilor civice. De menționat că 47 din cele 58 de contribuții reflectă poziții favorabile anumitor forme de interzicere ori de reglementare a sistemelor de arme autonome. Totodată, Adunarea generală a ONU e considerată „locul propice discuțiilor inclusive” pertinente ținându-se seama de reprezentativitatea aproape universală și așteptările oferite.

La 24 octombrie 2024 Prima Comisie a Adunării generale a ONU a anunțat că a încheiat discuțiile tematice anuale asupra armelor clasice, iar printre concluziile reținute în acest context se află și aceea că nu există un răspuns unic pentru controlul circulației, utilizării, distrugerii ori interdicției lor. De aceea, în afara tratelor deja existente, pe care marea majoritate cere să fie aplicate pe deplin și să le universalizeze, statele membre pledează pentru luarea de măsuri specifice în cadrul proceselor multilaterale în curs, în special prin intermediul diverselor proiecte de rezoluție, aspectele legate de dezvoltarea rapidă a înaltelor tehnologii militare urmând mai degrabă dimensiunile „etice și umanitare”. Discuțiile purtate se desfășoară în cadrul Grupului de experți guvernamentali privind sistemele de arme letale autonome (SALA) instituit în cadrul CCAC. În pozițiile exprimate cu această ocazie, relevându-se inevitabila dezvoltare a tehnologiilor bazate pe IA în sistemele de arme, se încurajează o utilizare de apărare a IA responsabile și cu respectarea dreptului internațional; unele delegații au apreciat ca îngrijorător faptul ca algoritmul să poată decide viața oamenilor și au susținut imperativul menținerii unui control uman asupra oricărei folosiri eventuale a forței și, în consecință, nevoia adoptării unui instrument juridic internațional pertinent. În fine, China s-a pronunțat, la rându-i, în favoarea negocierii unui atare acord dar „numai în cadrul Convenției privind anumite categorii de arme clasice”.

Impactul aplicațiilor militare ale IA asupra dreptului internațional în general, și cel umanitar în special reprezintă deja o provocare reală și majoră a lumii. Reglementarea sa și respectarea principiului controlului uman asupra noilor tehnologii reprezintă o prioritate absolută. În același timp, respectarea normelor interstatale imperative pendinte în cauză și adoptarea altora noi adecvate, presupune o abordare la nivel mondial, cu o deschidere universală și urmarea căii adoptării unui tratat internațional special privind interzicerea producerii, proliferării și utilizării armelor letale automate, cu participarea unui număr cât mai mare de state-părți, în frunte cu marile puteri tehnologice și militare.