Etica AI și legea AI pun întrebări grele despre acel nou angajament de către producătorii de roboți dansați care spun că vor evita armarea AI

Probabil că săptămâna trecută ați văzut în știri sau ați observat pe rețelele de socializare angajamentul anunțat de unii producători de roboți cu privire la obiectivele lor declarate de a evita armamentul AI a roboților de uz general. Vă voi ghida prin detalii într-o clipă, așa că nu vă faceți griji dacă nu ați aflat problema.

Reacția la această proclamație a fost rapidă și, probabil, ca de obicei în societatea noastră polarizată, a fost atât laudativă, cât și uneori batjocoritor de critică sau de-a dreptul urât de sceptică.

Este o poveste despre două lumi.

Într-o lume, unii spun că pentru asta avem nevoie responsabil Dezvoltatorii de roboți AI să declare.

Slavă Domnului că sunteți pe partea dreaptă a unei probleme care va deveni treptat mai vizibilă și mai îngrijorătoare. Acei roboți drăguți care dansează sunt deranjanți, deoarece este destul de ușor să-i readuceți să poarte arme și să fie folosiți în cele mai rele moduri (puteți verifica acest lucru singur accesând rețelele sociale și există o mulțime de videoclipuri care prezintă roboți dansați înarmați cu mitraliere și alte armamente).

Cealaltă față a acestei monede spune că așa-numitul gaj nu este altceva decât un truc de marketing sau relații publice (ca o notă secundară, este cineva familiarizat cu diferența dintre un gaj și o donație?). Oricum, cei care se îndoiesc îndeamnă că aceasta este o semnalare a virtuții nestăpânite în contextul roboților dansați. Vezi tu, deplângerea faptului că roboții de uz general pot fi armați este cu siguranță o considerație utilă și căutată cu seriozitate, deși simpla afirmație că un producător nu va face acest lucru este probabil o promisiune goală, insistă unii.

Una peste alta, întreaga chestiune aduce în discuție un set destul de important de considerații privind Etica AI și Legea AI. Vom despacheta cu meticulozitate subiectul și vom vedea cum acesta este un dublu zgomot al unei moașteni etice și legale de AI. Pentru acoperirea mea continuă și extinsă a eticii AI și a legii AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

De asemenea, pe parcursul acestei discuții, mă voi referi la analizele mele anterioare cu privire la pericolele armelor AI, cum ar fi evaluarea mea aprofundată la linkul aici. Poate doriți să aruncați o privire la acel discurs pentru detalii suplimentare din culise.

Scrisoarea deschisă care deschide o cutie de viermi

Să începem această analiză făcând o explorare atentă, pas cu pas, a Scrisorii deschise, care a fost publicată recent de șase producători de roboți avansați relativ bine cunoscuți, și anume Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics și Unitree. În general, presupun că ați văzut în principal roboții Boston Dynamics, cum ar fi cei care se ridică în patru picioare. Arată ca și cum ar fi câini și ne bucură să-i vedem zburdând în jur.

După cum am avertizat anterior și în mod repetat, utilizarea unor astfel de roboți „dansatori” ca mijloc de a convinge publicul larg că acești roboți sunt drăguți și adorabili este, din păcate, înșelătoare și se îndreaptă spre capcanele abundente ale antropomorfizării lor. Începem să ne gândim la aceste bucăți de metal și plastic întărite ca și cum ar fi echivalentul unui câine loial și drăgălaș. Dorința noastră de a accepta acești roboți se bazează pe un fals sentiment de siguranță și asigurare. Sigur, trebuie să câștigi bani și șansele de a face acest lucru sunt sporite prin defilarea în jurul roboților dansatori, dar acest lucru omite sau aparent ascunde faptul real că acești roboți sunt roboți și că AI care controlează roboții poate fi conceput greșit. sau mergi razna.

Luați în considerare aceste ramificații ale AI (extras din articolul meu despre armamentul AI, găsit la linkul aici):

  • AI ar putea întâmpina o eroare care o face să se rătăcească
  • AI ar putea fi depășit și blocat fără a răspunde
  • AI poate conține erori ale dezvoltatorului care cauzează un comportament neregulat
  • AI ar putea fi corupt cu virusul răufăcător implantat
  • AI ar putea fi preluat de hackeri cibernetici în timp real
  • Inteligența artificială ar putea fi considerată imprevizibilă din cauza complexității
  • AI ar putea lua din punct de vedere computațional decizia „greșită” (relativ)
  • Etc

Acestea sunt puncte referitoare la AI care este de tipul care este cu adevărat conceput la început pentru a face ceea ce trebuie.

Pe lângă aceste considerații, trebuie să includeți sisteme AI create de la început pentru a face lucruri rele. Puteți avea AI care este creată în scopuri benefice, adesea denumită AI pentru bine. Puteți avea, de asemenea, AI care este creat în mod intenționat în scopuri rele, cunoscut ca AI pentru rău. În plus, poți avea AI pentru bine care este corupt sau rejiggered în devenire AI pentru rău.

Apropo, nimic din toate acestea nu are nimic de-a face cu AI-ul care devine sensibil, lucru pe care îl menționez pentru că unii continuă să exclame că AI-ul de astăzi este fie simțitor, fie pe punctul de a fi sensibil. Nu asa. Am demontat acele mituri în analiza mea la linkul aici.

Să ne asigurăm atunci că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am vrea să speculăm în mod sălbatic despre IA sensibilă, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea IA super-inteligentă, este de imaginat că o astfel de IA ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Aș sugera cu tărie să menținem lucrurile cu picioarele pe pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

Fiți foarte atenți la antropomorfizarea IA de astăzi.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Toate acestea au implicații semnificative de etică AI și oferă o fereastră utilă către lecțiile învățate (chiar înainte ca toate lecțiile să se întâmple) atunci când vine vorba de încercarea de a legifera AI.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. Ei avertizează că, dacă adoptăm unele dintre aceste legi privind IA, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense.

În coloanele anterioare, am acoperit diferitele eforturi naționale și internaționale de a elabora și a adopta legi care reglementează IA, vezi linkul aici, de exemplu. Am tratat, de asemenea, diferitele principii și linii directoare ale eticii IA pe care diferitele națiuni le-au identificat și adoptat, inclusiv, de exemplu, efortul Națiunilor Unite, cum ar fi setul UNESCO de etică IA pe care aproape 200 de țări l-au adoptat, vezi linkul aici.

Iată o listă de temelie utilă a criteriilor sau caracteristicilor AI etice privind sistemele AI pe care le-am explorat anterior îndeaproape:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Se presupune că acele principii de etică AI sunt utilizate cu seriozitate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI.

Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a subliniat anterior aici, este nevoie de un sat pentru a concepe și a dezvolta IA și pentru care întregul sat trebuie să fie familiarizat și să respecte preceptele de etică AI.

Acum că am pus o bază utilă pentru a intra în Scrisoarea deschisă, suntem gata să ne aprofundăm.

Titlul oficial al subiectului scrisorii deschise este următorul:

  • O scrisoare deschisă către industria robotică și comunitățile noastre, roboții de uz general nu ar trebui să fie armați” (după cum este postat online).

Până acum, bine.

Titlul pare aproape ca înghețată și plăcintă cu mere. Cum ar putea cineva să conteste acest lucru ca un apel de altădată pentru a evita armonizarea roboților AI?

Citiți mai departe pentru a vedea.

În primul rând, ca nutreț de luat în considerare, iată paragraful oficial de deschidere al Scrisorii deschise:

  • „Suntem unele dintre companiile de top din lume dedicate introducerii în societate a noilor generații de robotică mobilă avansată. Aceste noi generații de roboți sunt mai accesibile, mai ușor de operat, mai autonome, mai accesibile și adaptabile decât generațiile anterioare și sunt capabile să navigheze în locații inaccesibile anterior tehnologiilor automate sau controlate de la distanță. Credem că roboții mobili avansați vor oferi un mare beneficiu societății ca colegi de muncă în industrie și însoțitori în casele noastre” (după cum este postat online).

Partea însorită a apariției acestor tipuri de roboți este că putem anticipa că vor apărea o mulțime de beneficii grozave. Nu există nici o îndoială. S-ar putea să aveți un robot în casă care poate face acele activități asemănătoare cu Jetson, cum ar fi curățarea casei, spălarea vaselor și alte treburi în jurul gospodăriei. Vom avea roboți avansați pentru utilizare în fabrici și unități de producție. Roboții pot să se târască sau să manevreze în spații înguste, cum ar fi atunci când o clădire se prăbușește și vieți umane sunt în joc pentru a fi salvate. Si asa mai departe.

În afară de aceasta, s-ar putea să găsească interes recenta mea acoperire critică a ochilor a Zilei Tesla AI, la care un fel de roboți care merg pe jos au fost înfățișați de Elon Musk drept viitorul pentru Tesla și societate, vezi linkul aici.

Revenind la problema în discuție. Când discutăm serios despre roboți care dansează sau roboți care merg, trebuie să luăm în considerare cu atenție compromisurile sau rentabilitatea totală a investiției (Return on Investment) al acestei utilizări a AI. Nu ar trebui să ne lăsăm să fim prea îndrăgostiți de beneficii atunci când sunt și costuri de luat în considerare.

O jucărie nouă strălucitoare poate avea margini destul de ascuțite.

Toate acestea provoacă un punct important, dar oarecum tăcut, că o parte din motivul pentru care problema armelor AI apare acum se datorează progresului AI către activitatea autonomă. De obicei, ne-am așteptat ca armele să fie, în general, operate de oameni. Un om ia decizia dacă să tragă sau să angajeze arma. Probabil că putem considera acel om responsabil pentru acțiunile sale.

AI care este conceput să funcționeze autonom sau care poate fi păcălit să facă acest lucru ar scoate aparent umanul din buclă. AI ia apoi, în mod algoritmic, decizii computaționale care pot ajunge să ucidă sau să rănească oameni. Pe lângă preocupările evidente cu privire la lipsa de control asupra AI, aveți, de asemenea, reținerea că s-ar putea să avem o perioadă grea de a stabili responsabilitatea cu privire la acțiunile AI. Nu avem un om care să fie instigatorul nostru evident.

Îmi dau seama că unii cred că ar trebui să tragem AI la răspundere pur și simplu și direct pentru acțiunile sale, de parcă AI ar fi dobândit conștiință sau i s-ar fi acordat în alt mod personalitate juridică (vezi acoperirea mea despre dezbaterile cu privire la obținerea personalității juridice a AI la adresa linkul aici). Asta nu va merge deocamdată. Va trebui să urmărim IA până la oamenii care fie au conceput-o, fie care l-au pus în practică. Ei vor încerca, fără îndoială, să evite din punct de vedere legal responsabilitatea, încercând să susțină că AI a depășit ceea ce și-au imaginat. Aceasta este o dispută din ce în ce mai mare cu care trebuie să o rezolvăm (a se vedea scrierile mele despre Legea AI pentru informații despre problemele litigioase implicate).

Organizația Națiunilor Unite (ONU) prin Convenția asupra anumitor arme convenționale (CCW) de la Geneva a stabilit unsprezece principii directoare neobligatorii privind armele autonome letale, conform raportului oficial postat online (cuprinzând referințe la dispozițiile pertinente ale dreptului internațional umanitar sau ale DIH) , inclusiv:

(a) Dreptul internațional umanitar continuă să se aplice pe deplin tuturor sistemelor de arme, inclusiv dezvoltării potențiale și utilizării sistemelor de arme autonome letale;

(b) Responsabilitatea umană pentru deciziile privind utilizarea sistemelor de arme trebuie păstrată, deoarece responsabilitatea nu poate fi transferată asupra mașinilor. Acest lucru ar trebui luat în considerare pe parcursul întregului ciclu de viață al sistemului de arme;

(c) Interacțiunea om-mașină, care poate lua diferite forme și poate fi implementată în diferite etape ale ciclului de viață al unei arme, ar trebui să asigure că potențiala utilizare a sistemelor de arme bazate pe tehnologii emergente în domeniul sistemelor de arme autonome letale este în respectarea legislației internaționale aplicabile, în special DIH. Pentru a determina calitatea și amploarea interacțiunii om-mașină, ar trebui luați în considerare o serie de factori, inclusiv contextul operațional și caracteristicile și capacitățile sistemului de arme în ansamblu;

(d) Responsabilitatea pentru dezvoltarea, desfășurarea și utilizarea oricărui sistem de arme emergente în cadrul CCW trebuie să fie asigurată în conformitate cu dreptul internațional aplicabil, inclusiv prin operarea unor astfel de sisteme în cadrul unui lanț responsabil de comandă și control uman;

(e) În conformitate cu obligațiile statelor în temeiul dreptului internațional, în studiul, dezvoltarea, achiziționarea sau adoptarea unei noi arme, mijloace sau metode de război, trebuie să se stabilească dacă folosirea acesteia ar fi, în unele sau în toate circumstanțele, interzis de dreptul internațional;

(f) Atunci când se dezvoltă sau se achiziționează noi sisteme de arme bazate pe tehnologii emergente în domeniul sistemelor de arme autonome letale, al securității fizice, al garanțiilor non-fizice adecvate (inclusiv al securității cibernetice împotriva hackingului sau al falsării datelor), riscul de achiziție de către grupuri teroriste și ar trebui luat în considerare riscul de proliferare;

(g) Evaluările riscurilor și măsurile de atenuare ar trebui să facă parte din ciclul de proiectare, dezvoltare, testare și desfășurare a tehnologiilor emergente în orice sisteme de arme;

(h) Ar trebui să se ia în considerare utilizarea tehnologiilor emergente în domeniul sistemelor de arme autonome letale pentru a susține conformitatea cu DIH și alte obligații legale internaționale aplicabile;

(i) În elaborarea unor potențiale măsuri de politică, tehnologiile emergente în domeniul sistemelor de arme autonome letale nu ar trebui să fie antropomorfizate;

(j) Discuțiile și eventualele măsuri de politică luate în contextul CCW nu ar trebui să împiedice progresul sau accesul la utilizările pașnice ale tehnologiilor autonome inteligente;

(k) CCW oferă un cadru adecvat pentru abordarea problemei tehnologiilor emergente în domeniul sistemelor de arme autonome letale în contextul obiectivelor și scopurilor Convenției, care urmărește să găsească un echilibru între necesitatea militară și considerațiile umanitare.

Acestea și alte diverse legi ale războiului și legi ale conflictelor armate sau DIH (Legile internaționale umanitare) servesc ca un ghid vital și mereu promițător pentru a lua în considerare ceea ce am putea încerca să facem cu privire la apariția sistemelor autonome care sunt armate, fie prin cheia de boltă. proiectare sau prin metode ulterioare.

Unii spun că ar trebui să interzicem definitiv acele sisteme autonome de inteligență artificială care sunt arme. Așa este, lumea ar trebui să pună piciorul și să ceară strident ca sistemele autonome AI să nu fie niciodată armate. Urmează să fie impusă o interdicție totală. Sfarsitul povestii. Punct, punct.

Ei bine, ne putem dori sincer ca interzicerea sistemelor autonome cu arme letale să fie respectată cu strictețe și ascultare. Problema este că o mulțime de spațiu de mișcare este obligat să se găsească în mod viclean în oricare dintre cele mai sincere interdicții. După cum se spune, regulile sunt menite să fie încălcate. Poți să pariezi că acolo unde lucrurile sunt lagăroase, riffraff-ul va descoperi lacune și va încerca să-și facă cu ochiul în jurul regulilor.

Iată câteva posibile lacune demne de luat în considerare:

  • Afirmații de non-letal. Faceți sisteme de arme autonome non-letale (aparent în regulă, deoarece se află în afara graniței interzicerii), pe care apoi le puteți transforma într-un cenț pentru a deveni letale (veți depăși interdicția doar în ultimul minut).
  • Pretenții numai pentru sistemul autonom. Menține interdicția, nefăcând sisteme autonome concentrate pe letale, între timp, fă progrese atât de mari în conceperea sistemelor autonome de zi cu zi care nu sunt (încă) armate, dar pe care le poți moderniza cu un ban pentru a fi armate.
  • Pretenții de neintegrat ca unul. Creați sisteme autonome care nu sunt deloc armate și, atunci când va veni momentul, armamentul pe piggyback, astfel încât să puteți încerca să argumentați cu vehemență că sunt două elemente separate și, prin urmare, susțineți că nu se încadrează în grila unui all-in-one. sistem de arme autonom sau vărul său.
  • Pretinde că nu este autonom. Faceți un sistem de arme care nu pare să aibă capacități autonome. Lăsați loc în acest sistem probabil neautonom pentru introducerea autonomiei bazate pe inteligență artificială. La nevoie, conectați autonomia și sunteți gata să rulați (până atunci, se pare că nu încălcați interdicția).
  • Altele

Există o mulțime de alte dificultăți exprimate în încercarea de a interzice definitiv sistemele de arme autonome letale. Voi mai acoperi câteva dintre ele.

Unii experți susțin că o interdicție nu este deosebit de utilă și, în schimb, ar trebui să existe prevederi de reglementare. Ideea este că aceste instrumente vor fi permise, dar supravegheate cu strident. Sunt prezentate o serie de utilizări legale, împreună cu modalități legale de direcționare, tipuri legale de capabilități, proporționalitate legală și altele asemenea.

În opinia lor, o interdicție directă este ca și cum ai pune capul în nisip și te-ai preface că elefantul din cameră nu există. Această dispută devine totuși să fiarbă sângele celor care contrapun argumentul că, instituind o interdicție, puteți reduce dramatic tentația de a urma astfel de sisteme. Sigur, unii vor etala interdicția, dar cel puțin sperăm că majoritatea nu o vor face. Puteți apoi să vă concentrați atenția asupra flunters și nu trebuie să vă fragmentați atenția asupra tuturor.

Aceste dezbateri merg rotund.

O altă îngrijorare des observată este că, chiar dacă cei buni respectă interdicția, cei răi nu o vor face. Acest lucru îi pune pe cei buni într-o postură proastă. Cei răi vor avea astfel de sisteme autonome armate, iar cei buni nu. Odată ce lucrurile vor fi dezvăluite că cei răi le au, va fi prea târziu pentru ca cei buni să ajungă din urmă. Pe scurt, singurul lucru inteligent de făcut este să te pregătești să lupți cu focul.

Există, de asemenea, argumentul clasic de descurajare. Dacă cei buni optează pentru a face sisteme autonome cu arme, acest lucru poate fi folosit pentru a-i descuraja pe cei răi să caute să intre într-o luptă. Fie cei buni vor fi mai bine înarmați și, astfel, îi vor descuraja pe cei răi, fie cei buni vor fi gata atunci când cei răi vor dezvălui, probabil, că ei au conceput acele sisteme pe ascuns tot timpul.

Un contracarat la aceste contoare este că, făcând sisteme autonome cu arme, porți o cursă înarmărilor. Cealaltă parte va căuta să aibă același lucru. Chiar dacă din punct de vedere tehnologic nu sunt capabili să creeze astfel de sisteme din nou, acum vor putea să fure planurile celor „bune”, să facă inginerie inversă a curățeniei high-tech sau să imite orice par să vadă ca un lucru încercat și adevărat. modalitate de a face treaba.

Aha, replică unii, toate acestea ar putea duce la o reducere a conflictelor printr-o aparență de reciprocitate. Dacă partea A știe că partea B are acele arme letale ale sistemelor autonome, iar partea B știe că partea A le are, s-ar putea să stea bine și să nu ajungă la lovituri. Aceasta are acea aură distinctă a vibrațiilor de distrugere asigurată reciproc (MAD).

Și așa mai departe.

Privind atent la al doilea paragraf

Am acoperit deja o mulțime de teren aici și doar până acum am luat în considerare primul paragraf sau primul paragraf al Scrisorii deschise (sunt patru paragrafe în total).

Este timpul să aruncați o privire la al doilea paragraf, iată:

  • „Ca și în cazul oricărei tehnologii noi care oferă noi capabilități, apariția roboților mobili avansați oferă posibilitatea utilizării greșite. Oamenii de neîncredere le-ar putea folosi pentru a invada drepturile civile sau pentru a amenința, răni sau intimida pe alții. Un domeniu de îngrijorare deosebită este armonizarea. Credem că adăugarea de arme la roboții care sunt operați de la distanță sau autonom, disponibile pe scară largă pentru public și capabili să navigheze în locații anterior inaccesibile unde oamenii trăiesc și lucrează, ridică noi riscuri de vătămare și probleme etice grave. Aplicațiile cu arme ale acestor roboți nou capabili vor afecta, de asemenea, încrederea publicului în tehnologie, în moduri care dăunează beneficiilor extraordinare pe care le vor aduce societății. Din aceste motive, nu sprijinim armonizarea roboților noștri de uz general cu mobilitate avansată. Pentru aceia dintre noi care au vorbit despre această problemă în trecut și pentru cei care s-au implicat pentru prima dată, simțim acum o urgență reînnoită, în lumina îngrijorării tot mai mari a publicului din ultimele luni, cauzată de un număr mic de persoane care și-au făcut public vizibilitatea improvizată. eforturi de a arma roboții disponibili comercial” (după cum este postat online).

Citind acel al doilea paragraf, sper că puteți vedea cum iese în prim-plan discursul meu anterior despre armonizarea AI.

Să examinăm câteva puncte suplimentare.

O oarecum nesiguranță cu privire la un anumit aspect al formulării care i-a încurajat pe unii este că narațiunea pare să sublinieze că „oamenii de neîncredere” ar putea folosi greșit acești roboți AI. Da, într-adevăr, ar putea fi oameni răi sau răufăcători care provoacă acte ticăloase care vor „utiliza greșit” roboții AI.

În același timp, așa cum s-a subliniat la începutul acestei discuții, trebuie să lămurim, de asemenea, că AI în sine ar putea merge prost, posibil din cauza erorilor sau erorilor încorporate și a altor astfel de complicații. Preocuparea exprimată este că doar subliniind șansele de oameni de neîncredere este că pare să ignore alte posibilități adverse. Deși majoritatea companiilor și vânzătorilor de AI nu recunosc acest lucru, există o multitudine de probleme legate de sistemele AI care pot submina siguranța și fiabilitatea sistemelor autonome. Pentru acoperirea mea despre siguranța AI și necesitatea unor garanții riguroase și dovedibile, consultați linkul aici, De exemplu.

Un alt punct notabil care a apărut printre cei care au examinat Scrisoarea deschisă implică afirmația inclusă că ar putea ajunge la subcotarea încrederii publicului asociată cu roboții AI.

Pe de o parte, aceasta este o afirmație valabilă. Dacă roboții AI sunt folosiți pentru a face licitații rele, puteți paria că publicul va fi destul de abur. Când publicul este abur, puteți paria că parlamentarii vor intra în incursiune și vor încerca să adopte legi care să restrângă roboții AI și producătorii de roboti AI. Acest lucru, la rândul său, ar putea paraliza industria robotică AI dacă legile sunt atotcuprinzătoare și închide eforturile care implică beneficii robotice AI. Într-un fel, bebelușul ar putea fi aruncat cu apa din baie (o expresie veche, care merită probabil să fie retras).

Întrebarea evidentă adusă este și dacă această afirmație despre evitarea unei reduceri a încrederii publice pentru roboții AI este un credo oarecum egoist sau dacă este pentru binele nostru a tuturor (pot fi ambele?).

Tu decizi.

Ajungem acum la partea deosebit de carnoasă a Scrisorii deschise:

  • „Ne angajăm că nu vom arma roboții noștri de uz general cu mobilitate avansată sau software-ul pe care îl dezvoltăm care permite robotică avansată și nu îi vom sprijini pe alții să facă acest lucru. Atunci când este posibil, vom analiza cu atenție aplicațiile propuse de clienții noștri pentru a evita potențiala armonizare. De asemenea, ne angajăm că vom explora dezvoltarea caracteristicilor tehnologice care ar putea atenua sau reduce aceste riscuri. Pentru a fi clar, nu luăm probleme cu tehnologiile existente pe care națiunile și agențiile lor guvernamentale le folosesc pentru a se apăra și a-și respecta legile” (după cum este postat online).

Putem despacheta asta.

Așează-te și pregătește-te în consecință.

Ești pregătit pentru o polarizare de foc?

Pe partea favorabilă, unii anunță vocal că acești producători de roboți AI ar face un astfel de angajament. Se pare că acești producători de roboți vor căuta, din fericire, să nu-și armeze roboții cu „mobilitate avansată de uz general”. În plus, Scrisoarea deschisă spune că nu îi vor sprijini pe alții care fac acest lucru.

Criticii se întreabă dacă se întâmplă ceva inteligent cuvinte.

De exemplu, unde începe și unde se termină „mobilitatea avansată”? Dacă un producător de roboți concepe un simplu-Robot AI de mobilitate, mai degrabă decât unul avansat (care este o bucată nedefinită de jargon tehnic), nu este exclus din domeniul de aplicare a ceea ce va nu fi armat? Astfel, aparent, este în regulă să armezi roboți AI cu mobilitate simplă, atâta timp cât aceștia nu sunt așa-numiți. avansat.

Același lucru este valabil și pentru formularea roboților de uz general. Dacă un robot AI este conceput special pentru armament și, prin urmare, nu este, vom spune a scop general robot, asta devine o excludere viabilă din domeniul de aplicare?

S-ar putea să dispute cu aceste dispute și să susțină cu ardoare că aceasta este doar o scrisoare deschisă și nu un document legal de cincizeci de pagini care explică fiecare colț și crăpătură.

Acest lucru ne aduce la scrupul aparent mai macro-nivel exprimat de unii. În esență, ce înseamnă un „gaj”?

Unii întreabă, unde este carnea de vită?

O companie care face un angajament ca acesta se pare că o face fără nicio miză adevărată în joc. Dacă liderul oricărei firme care se înscrie pentru acest angajament decide să nu mai onoreze angajamentul, ce se întâmplă cu firma respectivă? Directorii vor fi puși în conserve? Compania se va închide și își va cere scuze pentru că a încălcat angajamentul? Si asa mai departe.

Din câte se poate deduce, nu există nicio sancțiune sau penalizare specială pentru orice încălcare a gajului.

Ați putea susține că există o posibilitate de deteriorare a reputației. O firmă de gaj ar putea fi bătută pe piață pentru că și-a făcut un angajament pe care nu l-a mai respectat. Desigur, acest lucru presupune, de asemenea, că oamenii își vor aminti că angajamentul a fost făcut. De asemenea, presupune că încălcarea gajului va fi detectată într-un fel (pare clar puțin probabil ca o firmă să spună totul dacă face acest lucru). Încălcătorul angajamentului ar trebui să fie chemat și totuși o astfel de problemă ar putea deveni doar zgomot în tsunami-ul în curs de știri despre producătorii de roboti AI.

Luați în considerare un alt unghi care a apărut.

O firmă de gaj este cumpărată de o firmă mai mare. Firma mai mare optează să înceapă să transforme roboții de uz general cu mobilitate avansată în versiuni cu arme AI.

Este aceasta o încălcare a gajului?

Firma mai mare ar putea insista că nu este o încălcare, deoarece ei (firma mai mare) nu au făcut niciodată gajul. Între timp, roboții AI inofensivi pe care firma mai mică i-a adunat și concepuți, făcând acest lucru cu intențiile aparent cele mai altruiste, devin aproape peste noapte transformați în arme.

Subminează oarecum angajamentul, deși ați putea spune că firma mai mică nu știa că acest lucru se va întâmpla într-o zi. Erau serioși în dorința lor. Era în afara controlului lor ceea ce a ales să facă firma de cumpărare mai mare.

Unii se întreabă, de asemenea, dacă există vreo răspundere legală în acest sens.

O firmă de gaj decide peste câteva luni că nu va onora gajul. Au avut o schimbare de inima. Firma poate fi dat în judecată pentru că a renunțat la gajul pe care l-a făcut? Cine ar da în judecată? Care ar sta la baza procesului? Apar o serie de probleme juridice. După cum se spune, poți să dai în judecată aproape pe oricine, dar dacă vei câștiga este o problemă cu totul diferită.

Gândește-te la asta în alt mod. O firmă de angajare are ocazia de a face o afacere foarte mare pentru a vinde o grămadă de roboți de uz general cu mobilitate avansată unei companii masive care este dispusă să plătească din nas pentru a obține roboții. Este una dintre acele oferte de cumpărare de miliarde de dolari o dată în viață.

Ce ar trebui să facă compania de robotică AI?

Dacă firma de gaj de robotică AI este tranzacționată la bursă, aproape sigur ar urma să facă vânzarea (același lucru s-ar putea spune despre o firmă privată, deși nu chiar așa). Imaginați-vă că firma de gaj este îngrijorată că cumpărătorul ar putea încerca să armeze roboții, deși să presupunem că nu există o astfel de discuție pe masă. Se zvonește doar că cumpărătorul ar putea face acest lucru.

În consecință, firma de gaj pune în licențiere că roboții nu trebuie să fie armați. Cumpărătorul refuză această limbă și se îndepărtează de achiziție.

De la cât profit a ieșit firma de robotică AI care a promis?

Există un moment în care profitul în mână depășește includerea cerinței de restricție de licențiere (sau, poate, formularea legală a restricției pentru a permite o marjă de mișcare și totuși să facă afacerea să se realizeze)? Cred că puteți vedea dilema implicată. Tone de astfel de scenarii sunt ușor de inventat. Întrebarea este dacă acest angajament va avea dinți. Daca da, ce fel de dinti?

Pe scurt, așa cum sa menționat la începutul acestei discuții, unii sunt încurajați că acest tip de gaj este făcut, în timp ce alții au o viziune mai slabă asupra faptului că gajul va ține apă.

Mergem mai departe.

Obținerea unui angajament

Al patrulea și ultimul paragraf al Scrisorii deschise spune așa:

  • „Înțelegem că singur angajamentul nostru nu este suficient pentru a aborda pe deplin aceste riscuri și, prin urmare, solicităm factorilor de decizie să colaboreze cu noi pentru a promova utilizarea în siguranță a acestor roboți și pentru a interzice utilizarea lor greșită. De asemenea, facem apel la fiecare organizație, dezvoltator, cercetător și utilizator din comunitatea robotică să își facă angajamente similare de a nu construi, autoriza, sprijini sau permite atașarea de arme la astfel de roboți. Suntem convinși că beneficiile pentru umanitate ale acestor tehnologii depășesc cu mult riscul utilizării greșite și suntem încântați de un viitor strălucit în care oamenii și roboții lucrează cot la cot pentru a face față unor provocări ale lumii” (după cum este postat online).

Această ultimă porțiune a Scrisorii deschise are câteva elemente suplimentare care au stârnit furie.

Apelarea factorilor de decizie poate fi bine sfătuită sau prost sfătuită, susțin unii. S-ar putea să obțineți factori de decizie care nu sunt familiarizați cu aceste chestiuni, care apoi să facă clasica grabă la judecată și să creeze legi și reglementări care uzurpă progresul roboților AI. Conform punctului menționat mai devreme, poate că inovația care promovează progresele robotice AI va fi perturbată sau călcată.

Mai bine fii sigur că știi ce ceri, spun criticii.

Desigur, contraargumentul este că narațiunea afirmă în mod clar că factorii de decizie ar trebui să lucreze cu firmele de robotică AI pentru a-și da seama cum să facă, probabil, astfel de legi și reglementări. Contraargumentul este că factorii de decizie politică ar putea fi văzuți ca fiind atenți la creatorii de robotică AI dacă își răspund capriciilor. Contrarul contra-argumentului este că este, în mod natural, o necesitate să lucrezi cu cei care știu despre tehnologie, altfel rezultatul va fi potențial dezastruos. etc.

Pe o bază, probabil, neclară, unii au avut arsuri la stomac peste linia care îi cere pe toată lumea să facă angajamente similare pentru a nu atașând armament până la roboți de uz general cu mobilitate avansată. Cuvântul cheie acolo este cuvântul atașând. Dacă cineva realizează un robot AI care încorporează sau încorporează perfect arme, asta pare să ocolească formularea atașând ceva. O puteți vedea acum, cineva susținând vehement că arma nu este atașată, este complet parte integrantă a robotului AI. Treceți peste asta, exclamă ei, nu suntem în domeniul de aplicare al acelui angajament și chiar ar fi putut spune altfel că așa sunt.

Acest lucru aduce o altă plângere cu privire la lipsa de lipiciitate a gajului.

Poate o firmă sau oricine care optează pentru a face acest gaj să se declare neagajat în orice moment că dorește să facă acest lucru și din orice motiv dorește?

Asa se pare.

Există o mulțime de discuții despre a face angajamente și ce tracțiune oferă acestea.

Concluzie

Da, s-ar putea spune, aceste companii care încearcă să facă ceea ce trebuie, sunt atacate pentru că încearcă să facă ceea ce trebuie.

Ce a venit din lumea noastră?

Oricine face un astfel de angajament ar trebui să i se acorde beneficiul îndoielii, ați putea susține cu pasiune. Ei ies în sfera publică pentru a aduce o contribuție îndrăzneață și vitală. Dacă începem să-i murdărim pentru că au făcut acest lucru, cu siguranță va înrăutăți lucrurile. Nimeni nu va dori să facă un asemenea angajament. Firmele și alții nici nu vor încerca. Ei se vor ascunde și nu vor avertiza societatea despre în ce pot fi transformați în mod periculos acei roboți dansatori dragi.

Scepticii proclamă că modalitatea de a face societatea să înțeleagă presupune și alte acțiuni, cum ar fi renunțarea la actul fantezist de a prezenta roboții AI care dansează. Sau cel puțin fă-l un act mai echilibrat. De exemplu, mai degrabă decât să imiteți doar câinii iubiți fideli animalelor de companie, ilustrați cum roboții dansatori pot fi mai asemănători cu lupii furiosi sălbatici dezlănțuiți care pot sfâșie oamenii în bucăți fără nicio ezitare.

Acest lucru va atrage mai multă atenție decât angajamente, imploră ei.

Angajamentele pot fi, fără îndoială, o enigmă.

După cum a afirmat elocvent Mahatma Gandhi: „Oricât de explicit ar fi angajamentul, oamenii vor întoarce și răsuci textul pentru a se potrivi cu propriul lor scop”.

Poate pentru a încheia aici într-o notă înălțătoare, Thomas Jefferson a spus asta despre angajamente: „Ne angajăm reciproc viețile noastre, averile și onoarea noastră sfântă”.

Când vine vorba de roboți cu inteligență artificială, autonomia lor, armonizarea lor și altele asemenea, în cele din urmă vom fi cu toții împreună. Angajamentul nostru reciproc trebuie să fie cel puțin că vom menține aceste chestiuni în prim-plan, ne vom strădui să găsim modalități de a face față acestor progrese și, cumva, să găsim calea spre a ne asigura onoarea, averea și viețile noastre.

Ne putem angaja la asta?

Așa sper.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- creatorii-de-roboți-spunând-că-vor-oferi-ai-armement/