Care este politica actualizată a Pentagonului privind roboții ucigași?

Pentagonul a emis un actualizarea Directivei sale 3000.09, care acoperă ceea ce ei numesc Autonomie în sistemele de arme iar altii suna 'ucigași roboți.' Drone actuale precum Forțele Aeriene și CIA MQ-9 Secerători sunt acţionate de la distanţă: o fiinţă umană stând în fața unui ecran video identifică ținte pe sol la mii de mile distanță, le plasează în punctul de vedere și eliberează a Rachetă Hellfire sau altă armă. Armele autonome sunt diferite: își aleg propriile ținte fără nicio intervenție umană. Sunt necesare reguli clare privind când și cum pot fi utilizate, iar noua directivă îi aduce un pas mai aproape.

În urmă cu zece ani, când a fost lansată prima versiune a 3000.09, armele autonome arătau ca o ficțiune științifico-fantastică. Acum sunt foarte reale. ONU a susținut că Dronele furnizate de Turcia au atacat ținte în mod autonom în Libia în 2020, iar Rusia desfășoară acum muniții tângăritoare în Ucraina cu capacitate autonomă.

Mulți activiști, precum Campanie pentru a opri robotul Killer, doresc o interdicție totală a armelor autonome, insistând că orice armă la distanță rămâne sub control control uman semnificativ tot timpul. ONU a dezbătut cum să se facă controlează astfel de arme de mulți ani.

Cu toate acestea, după cum arată clar noua directivă, Pentagonul se menține pe o linie diferită.

„DoD s-a opus în mod constant unui standard de politică de „control uman semnificativ” atât în ​​ceea ce privește sistemele autonome, cât și sistemele AI.” Gregory Allen, director al Proiectului privind guvernarea AI la Centrul de Studii Strategice și Internaționale, mi-a spus. „Termenul de artă preferat al DoD este „niveluri adecvate de judecată umană”, ceea ce reflectă faptul că, în unele cazuri – aeronave de supraveghere autonome și unele tipuri de arme cibernetice autonome, de exemplu – nivelul adecvat de control uman poate fi puțin sau deloc. .”

Ce arme autonome ar fi permise în ce circumstanțe? Allen crede că versiunea anterioară a directivei a fost atât de neclară încât a descurajat orice dezvoltare în acest domeniu.

„Confuzia a fost atât de răspândită – inclusiv în rândul unor lideri superiori ai DoD – încât oficialii s-au abținut de la dezvoltarea unor sisteme care nu numai că erau permise de politică, ci și scutite în mod expres de cerința de revizuire a seniorilor”, spune Allen.

Nici o singură armă nu a fost supusă procesului de revizuire pentru armele autonome stabilite în originalul 3000.09 în cei zece ani de când a fost publicată.

Allen a scris un eseu despre asta pentru CSIS anul trecut, descriind patru domenii care au avut nevoie de lucru – definirea oficială a sistemelor de arme autonome, spunând ce înseamnă „activat AI” pentru politică, modul în care procesul de revizuire va gestiona reinstruirea modelelor de învățare automată și clarificarea ce tipuri de arme necesită. trece printr-un proces dificil de revizuire.

„DoD le-a implementat pe toate”, spune Allen.

În principiu, acest lucru ar trebui să asigure ceea ce DoD numește „angajament puternic și continuu de a fi un lider global transparent în stabilirea politicilor responsabile cu privire la utilizările militare ale sistemelor autonome”.

Cu toate acestea, există unele completări care ar putea fi considerate lacune, cum ar fi o scutire de la revizuirea seniorilor pentru armele autonome care apără dronele care nu vizează oameni („arme antimateriale”) și care ar putea ținti rachete, alte drone. și eventual alte sisteme.

„Cuvântul „apărare” înseamnă o mulțime de muncă,” Zak Kallenborn, mi-a spus un coleg de politici la Şcoala de Politică şi Guvernare Schar de la Universitatea George Mason. „Dacă o dronă operează pe teritoriul inamicului, aproape orice armă ar putea fi interpretată ca „apărând” platforma.”

Kallenborn observă, de asemenea, că, deși armele autonome, cum ar fi minele terestre, au fost folosite de peste un secol, peisajul se schimbă rapid din cauza progreselor în AI și în special a învățării automate. Acestea au dat naștere la sisteme care sunt foarte capabile, dar fragil din punct de vedere tehnic – atunci când eșuează, eșuează spectaculos în moduri în care niciun om nu ar face-o, de exemplu confundând o țestoasă cu o pușcă.

„Autonomia prin AI merită cu siguranță mai multă îngrijorare, având în vedere fragilitatea și lipsa de explicabilitate a abordărilor dominante în prezent”, spune Kallenborn.

Actualizarea nu este una mare. Dar arată angajamentul continuu al Pentagonului față de dezvoltarea de arme autonome eficiente și credința pe care acestea se pot conforma. dreptul internațional umanitar — diferențierea civililor de personalul militar, încercând să evite rănirea civililor și folosind doar forța proporțională și necesară.

Participanții cred că AI nu va avea înțelegerea necesară pentru a face judecăți morale în timp de război și riscă să creeze o lume în care războiul este automatizat și oamenii nu mai dețin controlul. Alții cred că armata americană va fi întrecut de adversari cu arme autonome cu excepția cazului în care AI este încorporată la nivel tactic și acea prea multă implicare umană încetinește roboții militari.

Argumentul este probabil să continue chiar dacă încep să apară arme autonome, iar rezultatele vor fi urmărite îndeaproape. Oricum, se pare că vin roboții ucigași.

Sursa: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/