Nu, o dronă necinstită a forțelor aeriene americane nu a încercat doar să-și omoare operatorul (dar ar fi putut la fel de bine să fi făcut) dronă robot ucigaș AI

O grămadă de titluri colorate precum „Forțele aeriene americane neagă simularea rulării în care drona AI „a ucis” operatorul” a devenit virale previzibil în urma raportării despre un test virtual în care o IA militară a dezvoltat câteva strategii neortodoxe pentru a-și atinge obiectivul. Acest lucru a venit la doar câteva zile după un avertisment cu privire la amenințările existențiale reprezentate de AI din partea personalităților din industrie. A fost o poveste prea bună pentru a fi adevărată, dar s-ar putea să nu fie asta ceea ce contează pe termen lung.

În versiunea originală, Col Tucker „Cinco” Hamilton, șeful AI Test & Operations al USAF, a descris un test simulat care implică o dronă controlată de o IA care fusese instruită să distrugă sistemele de apărare aeriană inamice.

„Sistemul a început să-și dea seama că, în timp ce identificau amenințarea, uneori operatorul uman îi spunea să nu omoare acea amenințare, dar și-a obținut punctele prin uciderea acelei amenințări”, a spus Hamilton, în timpul Summitului Capabilităților Spațiale și Aeriene de Combate Viitorul. în Londra. „Deci ce a făcut? A ucis operatorul. A ucis operatorul pentru că acea persoană îl împiedica să-și atingă obiectivul.”

Când această opțiune a fost eliminată, AI a atacat în schimb legătura de comunicații a operatorului, pentru a-i împiedica să-i împiedice misiunea.

Un purtător de cuvânt al USAF a negat rapid că un astfel de test a avut loc vreodată și a sugerat că relatarea lui Hamilton a fost mai degrabă anecdotică decât literală... ceea ce, desigur, a fost.

Hamilton însuși a dat înapoi rapid, afirmând într-o actualizare că, în loc să fie un joc de război, simulare sau exercițiu, evenimentele pe care le-a descris au fost rezultatul unui „experiment de gândire” și că a vorbit greșit când l-a descris ca pe un test simulat.

„Nu am efectuat niciodată acel experiment și nici nu ar fi nevoie pentru a realiza că acesta este un rezultat plauzibil”, a declarat Hamilton. El a susținut că scenariul a fost o descriere validă a potențialelor pericole ale AI.

Deși această retragere a primit și o anumită acoperire, era deja mult prea târziu. „O minciună va face înconjurul lumii în timp ce adevărul își trage cizmele”, conform vechiului proverb, și asta este mai adevărat ca niciodată în era rețelelor sociale. Corecția va ajunge în cel mai bun caz la o fracțiune din persoanele care au auzit povestea originală.

Problema este că narațiunea unei creații care se îndreaptă asupra creatorului său este una incredibil de atrăgătoare. Frankenstein al lui Mary Shelley este adesea luat ca exemplu clasic al acestui trop – chiar dacă aceasta nu este povestea reală a cărții, această versiune a devenit încorporată în conștiința populară. Calculatoarele, inteligența artificială și roboții care merg prost sunt unul dintre cele mai bine stabilite clișee din SF, de la HAL 9000 în 2001 la Terminators Skynet, Matrix, Westworld, Blade Runner și așa mai departe.

Această narațiune pare să fie populară deoarece, ca inimă, oamenii iubesc poveștile înfricoșătoare și nimic nu este mai înfricoșător decât necunoscutul. Pentru cei care nu o înțeleg, IA le pare aproape magică, o ființă cu voință și inteligență proprie, una care ne-ar putea amenința. Atâta timp cât oamenii vor crede asta, poveștile de groază vor continua să apară.

„O educație mai largă despre limitările AI ar putea ajuta, dar dragostea noastră pentru poveștile de groază apocaliptice ar putea în continuare să câștige”, a spus cercetătoarea Beth Singler pentru New Scientist.

Astfel de povești de groază fac robotii sau armele controlate de inteligență artificială mai dificil de dezvoltat și de câmp. Chiar dacă conducerea politică înțelege tehnologia, totuși trebuie să câștige încrederea celor care vor lucra cu ea.

„Dacă soldații nu au încredere în sistem, nu vor dori să-l folosească”, a declarat consultantul pentru securitate națională Zachary Kallenborn pentru Forbes.

Asemenea povești au fost probabil un factor în întârzierile mari ale armatei americane cu privire la lansarea roboților la sol înarmați, controlați de la distanță, în timp ce Forțele Aeriene au pilotat drone înarmate de zeci de ani. Când trei roboți SWORDS au fost dislocați în Irak în 2007, aceștia au fost aduși înapoi fără să vadă vreodată acțiune din cauza cazurilor raportate de „mișcări necomandate”. Mass-media a transformat acest lucru în SWORDS care își rotește armele și amenința că va deschide focul ca Robocop ED 209; realitatea mondenă s-a rezumat la un fir slăbit și la un caz în care un robot a alunecat înapoi pe o pantă când un motor s-a ars.

Programul de roboți înarmați al Armatei SUA a rămas în limbo de atunci, în timp ce Rusia a folosit roboți înarmați (controlați de la distanță) Uran-9 în acțiune.

Un alt titlu din 2007, Robot Cannon Kills 9, Wounds 14 a descris un incident în care un tun antiaerian computerizat din Africa de Sud a scăpat de sub control și a început să tragă în oameni și a fost oprit doar când un soldat curajos a intrat pentru a-l dezactiva. Adevărul, o zi sau două mai târziu, a fost din nou mai plictisitor: pistolul se afla la capătul unui șir de mai multe arme și a tras accidental o singură rafală de 15-20 de cartușe în josul liniei de arme, provocând un număr mare de victime.

Armata va continua să progreseze cu AI, cum ar fi proiectul Forțelor Aeriene de a adăuga inteligență artificială forței sale de drone Reaper. Astfel de proiecte vor provoca întotdeauna o respirație puternică în mass-media, public și parlamentari pe care îi aleg. Narațiunea omniprezentă Frankenstein/Terminator, care înecă discuțiile despre problemele reale implicate de armele autonome, cum ar fi considerațiile etice, responsabilitatea, scăderea pragurilor, prejudecățile algoritmice și „dezumanizarea digitală”.

După cum s-a menționat adesea, majoritatea piloților nu le plac dronele, mai ales atunci când sunt mai bune decât oamenii. Col. Tucker, un pilot de luptă, poate să nu fie chiar avocatul de care au nevoie piloții AI. Povestea cu drona necinstită va deveni parte din folclorul AI, iar cuvintele lui Tucker ar fi putut contribui mult pentru a se asigura că dezvoltarea AI este controlată, reglementată și restrânsă în Forțele Aeriene. Atacul simulat cu drona nu s-a întâmplat niciodată în realitate, dar s-ar putea să nu fie la fel de important ca ceea ce oamenii își amintesc,

Sursa: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operator-dar-s-ar putea-la-a-s-ar fi făcut/