Etica AI Evaluarea cu prudență dacă este prudent sau inutil să ofere prejudecăți ale AI Vânarea recompenselor pentru a prinde și a prinde sisteme etic complet autonome

dorit: Vânători de părtiniri AI.

Acesta ar putea fi o reclamă modernă pe care veți începe să îl vedeți să apară pe canalele de socializare și să apară în diferite postări de locuri de muncă online. Acesta este un concept sau un rol relativ nou. Poarta cu el controverse. Unii credincioși înflăcărați susțin cu ardoare că are un sens abundent și ar fi trebuit să se întâmple de-a lungul timpului, în timp ce alții fac destul de nervoși niște zgârieturi serioase și nu sunt atât de siguri că aceasta este o idee bună.

Esența rolului constă în scoaterea din AI a oricăror părtiniri ascunse sau practici discriminatorii încorporate. În ajutor vin vânătorii dornici și de odinioară AI. Probabil că ar fi vânători de recompense pricepuți la computer. Cu atât mai mult, sperăm, cufundat în profunzimea capabilităților AI.

Deține o armă, vei călători și poate, prin ținere ascuțită, calificată în AI, să reușească să expună acele părtiniri neplăcute și nefavorabile ale AI.

Acest lucru ridică o serie de întrebări spinoase cu privire la sensibilitatea urmăririi unei astfel de tactici atunci când vine vorba de descoperirea prejudecăților AI. După cum voi discuta pentru moment, vă rog să știți că apariția AI a adus cu ea și apariția unor prejudecăți AI. Un torent de prejudecăți ale AI. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Cum să descoperim că un anumit sistem AI are părtiniri?

S-ar putea să le încredințați dezvoltatorilor AI care au conceput AI să facă acest lucru. Chestia este că s-ar putea să fie atât de cufundați în părtiniri, încât ei înșiși nu pot recunoaște părtinirile din AI-ul lor inventat. Totul li se pare bine. Sau s-ar putea să fie atât de încântați de IA și să aibă un sentiment de mândrie de sine în legătură cu ea, încât să trebuiască apoi să acționeze cu un ochi critic pentru a-l examina pentru prejudecăți ar fi dificil și o adevărată dezamăgire. O mulțime de alte astfel de motive ar putea părea să submineze ca dezvoltatorii AI să își asume această sarcină, inclusiv lipsa abilităților de a descoperi părtinirile încorporate, lipsa de timp într-un proiect pentru a face acest lucru etc.

Bine, deci mergi mai departe și angajează consultanți externi care să facă treaba murdară pentru tine, așa cum ar fi. Se dovedește că consultanții îți vor examina cu bucurie AI pentru prejudecăți, taxându-te cu un ban pentru a face acest lucru (o mulțime de bănuți). Realizează că trebuie să plătești pentru ca ei să ajungă la viteza cu sistemul tău AI. Apoi, trebuie să-i puneți să scormonească, ceea ce ar putea dura un număr nespus de ore costisitoare și laborioase. Folosirea consultanților este o opțiune dacă aveți buget pentru asta.

În „decalajul” potențial al modului de a găsi acele prejudecăți insidioase ale AI vin vânătorii de recompense eroici și strălucitori.

De obicei nu le plătiți în avans. Ei încearcă să găsească prejudecățile AI la timpul lor și trebuie să-și plătească singuri facturile în timp ce fac acest lucru. Numai dacă găsesc cu succes părtiniri, sunt plătiți. Presupun că ai putea afirma cu ușurință că, într-un mod adecvat de gândire, aceasta este definiția convențională a unui vânător de recompense. Fii plătit dacă reușești. Nu fiți plătit dacă nu aveți succes. Perioada, sfârșitul poveștii.

Programele de recompense au existat cel puțin încă de pe vremea romanilor și, prin urmare, am putea presupune că funcționează, după ce au rezistat cu succes ca practică în toți acești ani.

Iată o bucată fascinantă de trivia istorică pentru tine. Se pare că un mesaj postat în timpul Imperiului Roman în orașul Pompei a proclamat că sunt necesari vânători de recompense pentru a găsi o oală de cupru care a dispărut dintr-un mic magazin. Recompensa pentru recuperarea vasului de cupru a fost un premiu impresionant de șaizeci și cinci de monede de bronz. Ne pare rău să spunem că nu știm dacă vreun vânător de recompense a găsit oala de cupru și a revendicat monedele de bronz, dar știm că vânătoarea de recompense a continuat cu siguranță încă din acele timpuri străvechi.

În vremurile mai moderne, s-ar putea să știți că în anii 1980 s-au oferit câteva recompense notabile pentru a găsi erori de computer sau erori în pachetele software disponibile, iar apoi, în anii 1990, Netscape a oferit o recompensă semnificativă pentru găsirea erorilor în browserul lor web. (devenind una dintre cele mai proeminente firme ale acelei zile pentru a face acest lucru). Google și Facebook au optat fiecare pentru vânătoare de recompense pentru bug-uri începând cu anii 2010, respectiv 2013. Câțiva ani mai târziu, în 2016, chiar și Departamentul de Apărare al SUA (DoD) a intrat în acțiune prin efectuarea unui efort de recompensă „Hack the Pentagon” (rețineți că recompensa concentrată public a fost pentru erori găsite în diferite site-uri web legate de DoD și nu în sisteme critice de apărare).

Să pătrundem mai adânc în subiectul recompenselor de erori. Îmi dau seama că în principal îmi propun să vorbesc despre prejudecățile AI în vânătoarea de recompense în această discuție, dar există câteva paralele destul de relevante cu arena recompenselor de erori.

Unii sunt în mod demonstrabil nedumeriți că orice firmă ar dori să ofere o recompensă pentru a găsi erori (sau, în acest caz, părtiniri AI) în sistemele lor.

La suprafață, aceasta pare a fi un fel de strategie „pe care o ceri”. Dacă anunțați lumea că îi întâmpinați pe cei care ar putea încerca să găsească găuri în software-ul dvs., pare echivalent cu a le spune hoților să meargă înainte și să încerce să pătrundă în casa dvs. Chiar dacă credeți deja că aveți un sistem de alarmă antiefracție destul de bun și că nimeni nu ar trebui să poată intra în casa dvs. securizată, imaginați-vă că le cereți și, într-adevăr, rugați hoții să coboare cu toții la locul dvs. de reședință și să vedeți dacă pot. crapa în ea. Oh, necazurile pe care le țesem pentru noi înșine.

Același lucru s-ar putea spune despre a cere vânătorilor de recompense să găsească părtiniri în AI.

În primul rând, poate înseamnă că deja credeți sau chiar știți că AI-ul dvs. are părtiniri. Aceasta este o recunoaștere implicită șocant de directă, pe care puțini ar părea dispuși să o facă și ar putea să se retragă.

În al doilea rând, nu știi sigur ce ar putea face acești vânători de recompense. Ei ar putea alege să spună lumii întregi că au găsit părtiniri în inteligența ta. Se presupune că acest lucru ar putea pierde obținerea recompensei, deși unii ar putea savura atenția sau ar putea urmări să-și consolideze statutul pentru a obține concerte de consultanță și alte posibilități de generare de venituri. Poate fi complet altruist. Ar putea fi o formă de activism AI. Pot continua.

În al treilea rând, ar putea exista o întorsătură furișă a întregii afaceri. Un vânător de recompense care pretinde că caută prejudecăți AI ar putea să caute diabolic pentru a găsi modalități de a-ți ataca sistemul AI. Totul este o șaradă pentru a întreprinde în cele din urmă un atac cibernetic sever. S-ar putea să fi presupus că au încercat să ajute, în timp ce au greșeli în inimile lor. Trist, dar posibil.

În al patrulea rând, putem fi și mai contorsionați în această chestiune. Un vânător de recompense găsește niște prejudecăți penibile și potențial provocatoare de procese. Recompensa este o sumă de dolari pe care o vom numi X. În loc să pretindă recompensă, vânătorul de recompense face un fel de provocare ciudată de ransomware. Dacă plătiți vânătorului de recompense o sumă de zece ori X sau poate cerului limita, ei vă vor spune despre prejudecățile AI. Ai timp pana duminica seara la miezul noptii sa raspunzi. După acel moment, părtinirile AI vor fi dezvăluite pentru ca toți să le vadă. Da, o situație neplăcută în care să te afli.

În al cincilea rând, cei mai recenti sunt acei așa-numiți escroci cibernetici „hack to return” care, după ce au furat o grămadă de aluat online, decid să se pocăiască și să returneze o parte din prada nelegiuită pe care au luat-o. Compania care își returnează parțial banii este apoi dispusă să considere suma furată rămasă drept recompensă ulterioară răsplătită hoților. Se pare că toată lumea „câștigă” prin faptul că cea mai mare parte a fondurilor sunt returnate și, între timp, escrocii cibernetici nu sunt urmăriți în mod legal, plus că primesc recompensă pentru pirat. Este acest lucru prudent sau perpetuează în mod insidios fapte ilegale?

Îmi dau seama că unii dintre voi ar putea spune că nimeni nu ar trebui să elibereze AI care are vreo părtinire în ea. Acest lucru pare să rezolve toată această dilemă cu privire la utilizarea sau nu a vânătorilor de recompense de AI. Doar nu te baga într-o situație de recompensă. Asigurați-vă că dezvoltatorii dvs. AI fac ceea ce trebuie și nu permit prejudecăți AI în sistemele lor AI. Poate folosiți consultanți pentru a face o dublă verificare. În esență, fă tot ce trebuie să faci pentru a evita să te gândești sau să le ceri acelor vânători de recompense AI părtinitori să vină la masă.

Da, s-ar părea cu totul înțelept. Problema este că este și un pic de vis. Complexitatea multor sisteme AI este atât de mare încât încercarea de a ne asigura că nu apare nici măcar un gram de prejudecăți AI va fi dificil de realizat. În plus, unele sisteme AI sunt concepute în mod intenționat pentru a se ajusta și „învăța” pe măsură ce merg. Aceasta înseamnă că, la un moment dat în viitor, IA pe care ați conceput-o, care să pretindem la început că a fost pur curată și fără părtiniri, ar putea gravita spre a întruchipa părtiniri (nu mă refer la asta într-un mod antropomorf, așa cum voi explica în continuare pe măsură ce vom merge mai departe pe acest subiect).

Cei care favorizează vânătoarea de recompense pentru erori software sunt predispuși să susțină că are sens să ofere astfel de recompense. Putem lua în considerare rațiunea lor și vedem dacă se aplică și domeniului prejudecăților AI.

Susținătorii recompenselor pentru bug-uri subliniază că, în loc să încerce să pretindă că nu există găuri în sistemul tău, de ce să nu încurajezi găurile să fie găsite, făcând acest lucru într-o manieră „controlată”? În schimb, fără un astfel de efort de recompensă, ai putea doar să speri și să te rogi ca, din întâmplare, nimeni să nu găsească o gaură, dar dacă, în schimb, oferi o recompensă și le spui celor care găsesc o gaură că vor fi răsplătiți, aceasta oferă un șansă de a închide singur gaura și apoi îi împiedicați pe alții să o găsească în secret la un moment dat ulterior.

Același lucru s-ar putea spune și în cazul de utilizare a prejudecăților AI. Dacă oferiți o recompensă suficientă, sperăm că vânătorii de recompense vă vor aduce în atenție descoperirea prejudecăților AI. Apoi puteți face față prejudecăților AI într-un mod relativ liniștit și măsurat. Acest lucru ar putea preveni o problemă mult mai mare și mai descurajantă mai târziu, și anume că altcineva găsește părtiniri AI în AI-ul tău și țipă despre asta către cerurile înalte.

În general, o firmă care dorește să activeze efortul de vânătoare de recompense pentru bug-uri va pune în aplicare o Politică de divulgare a vulnerabilităților (VDP). VDP indică modul în care erorile trebuie găsite și raportate companiei, împreună cu modul în care recompensa sau recompensă vor fi oferite vânătorului. De obicei, VDP va cere vânătorului să semneze un Acord de nedivulgare (NDA), astfel încât să nu dezvăluie altora ceea ce a găsit.

Noțiunea de a folosi un NDA cu vânătorii de recompense are unele controverse. Deși poate că are sens pentru compania care oferă recompensă să dorească să păstreze mama expunerilor găsite, se spune că, de asemenea, înăbușează conștientizarea generală despre astfel de erori. Probabil, dacă se permite să se vorbească despre erorile software, ar ajuta potențial siguranța altor sisteme la alte firme, care apoi le-ar consolida expunerile. Unii vânători de recompense nu vor semna un NDA, parțial din cauza dorinței publice și parțial din cauza încercării de a-și păstra propria identitate ascunsă. De asemenea, rețineți că aspectul NDA nu apare de obicei decât după ce vânătorul susține că a găsit o eroare, mai degrabă decât să o solicite în prealabil.

Unele VDP stipulează că NDA este doar pentru o perioadă limitată de timp, permițând companiei să găsească mai întâi o soluție la gaura aparentă și apoi să permită o dezvăluire mai largă despre aceasta. Odată ce gaura a fost astupată, firma permite apoi o slăbire a NDA, astfel încât restul lumii să poată ști despre bug. Timpul obișnuit până la rezoluție pentru bug-urile vânate de recompense este de aproximativ 15-20 de zile când o firmă dorește să-l conecteze imediat, în timp ce în alte cazuri s-ar putea prelungi până la 60-80 de zile. În ceea ce privește plata vânătorului de recompense, așa-numitul time-to-pay, după ce gaura a fost verificată ca existentă efectiv, plățile recompenselor tind să fie în aproximativ 15-20 de zile pentru cazurile mai mici și în jur de 50-60 de zile. zile pentru cazurile mai mari (acestea sunt indicații industriale în continuă schimbare și sunt menționate doar ca ilustrative).

Ar trebui să li se solicite și vânătorilor de recompense să participe la un VDP și să se ocupe de un NDA?

Puteți primi un da și un nu la această întrebare. Da, unele firme ar trebui să meargă pe această cale. Nu, s-ar putea să nu optezi neapărat să mergi pe acea cale. Factorii includ dimensiunea și natura IA, potențialul oricăror expuneri la prejudecăți ale AI implicate și o grămadă de alte considerații etice, juridice și de afaceri care se aplică.

Aș putea adăuga că stabilirea unui efort de vânătoare de recompense pentru prejudecățile AI ale IA este o ordine mult mai înaltă decât ați putea presupune la o privire inițială.

Vom începe cu formidabila posibilitate ca să fii copleșit de vânătorii de recompense prejudiciați AI.

În acest moment, ți-ar fi greu să găsești multe care să aibă o astfel de carte de vizită. Nu sunt mulți în jur. Sunt zilele Vestului Sălbatic în acest sens. Dar dacă noțiunea de prejudecăți AI în vânătoarea de recompense se realizează, mai ales atunci când recompensele sunt abundente și plin de recompense, puteți paria că toată lumea se va scufunda în piscina de vânătoare de recompense.

Doriți tot felul de bănuieli care urmăresc prejudecățile AI în sistemul dumneavoastră AI? Veți obține niște participanți care sunt de fapt experți în acest gen de lucruri. Veți obține alți utilizatori amatori și care ar putea face mizerie sau plânge lup. Următorul lucru pe care îl știi, oricine poate scrie „Inteligenta artificială” va veni să sape în mina ta de aur a unui sistem AI pentru acele prețioase prejudecăți ale AI pepite de aur. Goana aurului este declanșată. S-ar putea să nu fie bine pentru tine.

Va trebui să analizați cu atenție trimiterile vânătorilor de recompense. Va fi mult „zgomot” în revendicările raportate, în sensul că multe dintre prejudecățile pretinse ale AI nu există, deși vânătorul de recompense insistă că au găsit unele. Imaginează-ți cât de multă muncă vor avea nevoie propriilor tale echipe de inteligență artificială pentru a examina cererile de recompense, pentru a explora validitatea fiecăreia și, eventual, a merge înainte și înapoi cu vânătorul de recompense pentru a afla dacă aurul a fost descoperit sau nu.

Unii ar susține că acesta este un alt motiv pentru a face totul singur. S-ar putea să descoperi în mod inevitabil că chestia cu recompensă este mai multe probleme decât a meritat.

Iată o altă întrebare la care să te gândești. Cum vor ști vânătorii de recompense cum arată părtinirea AI? În esență, fără o aparență a ceea ce trebuie să căutați, orice rocă strălucitoare ar putea fi pretinsă ca prezentând o părtinire AI în mina de aur percepută AI care este excavată.

În zilele Vechiului Vest, să presupunem că ai oferit o recompensă pentru capturarea lui Billy the Kid (un haiduc faimos). Dacă ați făcut acest lucru și nu ați inclus o imagine a cum arăta Billy, imaginați-vă numărul de vânători de recompense care ar putea trage în biroul șerifului pe cineva pe care ei sperau sau credeau că este Billy the Kid. S-ar putea să fii inundat de fals Billy. Acest lucru este rău, deoarece probabil ar trebui să te uiți la fiecare, să pui întrebări de sondare și să încerci să stabilești dacă persoana a fost într-adevăr Billy sau nu.

Ideea este că, pentru a configura efortul de recompensă pentru prejudecățile AI, ar fi înțelept să încercați să clarificați în ce considerați că constau prejudecățile AI. Acest lucru necesită un fel de calibrare Goldilocks. Nu vrei să fii atât de restrictiv încât vânătorii de recompense să treacă cu vederea prejudecățile AI doar pentru că nu se încadrează în definiția ta și nici nu vrei să strige „Eureka!” la fiecare bucată de părtinire a AI pe care probabil o găsesc.

Veți avea nevoie doar de echilibrul Goldilocks potrivit în ce constau prejudecățile AI și, astfel, oferiți, de preferință, instrucțiuni explicite ale acestora.

O mare parte din această vânătoare de recompense AI se va concentra pe sistemele de învățare automată (ML) și de învățare profundă (DL) bazate pe AI. Acest lucru are sens, deoarece apariția pervasivității ML/DL este în creștere, plus că pare să aibă unele dintre cele mai probabile provocări de a include părtiniri nejustificate ale AI.

Acești cercetători identifică cât de important poate fi efortul de vânătoare a recompenselor AI, în special în contextul ML/DL: „De-a lungul timpului, comunitățile de software și de securitate au dezvoltat „recompense de erori” în încercarea de a transforma dinamica similară între dezvoltatorii de sisteme și criticii lor. (sau hackeri) spre scopuri mai interactive și mai productive. Speranța este că, invitând în mod deliberat părți externe să găsească erori software sau hardware în sistemele lor și, adesea, oferind stimulente monetare pentru a face acest lucru, va evolua un ecosistem mai sănătos și cu răspuns mai rapid. Este firesc ca comunitatea ML să ia în considerare o abordare similară de „recompensă de părtinire” pentru descoperirea și repararea în timp util a modelelor și sistemelor cu părtinire sau alte comportamente nedorite. În loc să găsească erori în software, părțile externe sunt invitate să găsească părtiniri – de exemplu, subgrupuri (demografice sau de altă natură) de input-uri pe care un model antrenat are performanțe slabe – și sunt recompensate pentru acest lucru” (în lucrarea „An Algorithmic Framework for Bias Bounties” de Ira Globus-Harris, Michael Kearns și Aaron Roth).

În lucrarea de cercetare, autorii subliniază o abordare sugerată a tipurilor de prejudecăți ale AI care pot fi căutate de către vânătorii de recompense. Există, de asemenea, o indicație despre cum să evaluăm pretențiile vânătorilor de recompense asociate cu presupusele părtiniri ale AI descoperite astfel. Conform observațiilor mele anterioare de aici, șansele sunt că veți primi pretenții înțelegătoare și trebuie să separați grâul de AI de pleavă.

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza vânătoarei de părtinire a AI, să stabilim câteva elemente fundamentale suplimentare pe subiecte profund integrale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a spus mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să revenim acum la subiectul vânătoarei de părtinire AI.

Pentru aceia dintre voi care se gândesc la un efort de vânătoare de recompense AI, iată cei șapte pași cheie recomandați de mine pentru a proceda cel mai bine:

1) Evalua. Evaluați adecvarea unui efort de vânătoare de recompense AI bias pentru circumstanțele dvs. și în conformitate cu sistemele dvs. AI

2) Amenajări. Proiectați o abordare adecvată a vânătorii de recompense AI

3) aplica. Implementați și faceți publicitate eforturilor dvs. de vânătoare de recompense ale AI

4) Câmp. Câmpul AI prejudiciază revendicările de recompensă și procesează în consecință

5) Repara. Remediați sau ajustați AI-ul în funcție de aceste expuneri descoperite la prejudecățile AI

6) Ajusta. Ajustați AI prejudecăți vânătoarea de recompense după cum este necesar

7) Întrerupe. Întrerupeți vânătoarea de recompense de AI când nu mai este necesară

În seria mea de pași de mai sus, rețineți că menționez că probabil că veți dori să vă remediați sau să vă ajustați AI, pe baza constatării că o pretinsă părtinire a AI există de fapt în sistemul dvs. AI. Acest lucru are sens din belșug. Aproape sigur ați dori să susțineți orice părtinire a AI găsită. Gândiți-vă la ramificațiile legale (și etice) dacă nu faceți acest lucru. Un lucru este să afirmi că nu știai că există o prejudecată AI și, prin urmare, i-ai permis să existe, în timp ce este mult mai șubredă să ai în evidență că ai fost conștient de o prejudecată AI și nu ai făcut nimic în acest sens.

Natura și gradul remedierii sau ajustării AI ar depinde, desigur, de cât de semnificative au fost prejudecățile AI și cât de profund încorporate sunt problemele. Dacă aveți noroc, poate că o cantitate modestă de modificări ale AI va remedia situația. Celălalt potențial este că ar putea fi necesar să faceți o rescrie întreagă a AI. Pentru tipul de IA ML/DL, acest lucru ar putea necesita revenirea la planșa de desen și începerea din nou cu un set complet nou de date și un model ML/DL curățat. Am discutat despre apariția deversării AI sau a distrugerii AI ca un potențial remediu legal împotriva AI nefavorabile, vezi linkul aici.

O întrebare la care trebuie să vă gândiți este dacă doriți ca vânătorii de recompense să facă mai mult decât să identifice existența prejudecăților AI. De exemplu, ați putea îndulci recompensa indicând că și remediile propuse sunt binevenite. O prejudecată AI găsit de către un vânător de recompense ar putea fi plătită cu o recompensă sau un premiu indicat. Dacă vânătorul de recompense poate oferi și un viabil stabili din cauza prejudecății AI, li s-ar putea acorda apoi o recompensă suplimentară.

Unii susțin că acesta este un pod prea departe. Ei spun că ar trebui să păstrați vânătorii de recompense pentru prejudecăți AI concentrați exclusiv pe găsirea prejudecăților AI. Veți crea o grămadă de consecințe adverse nedorite invitându-i să sugereze și remedieri. Păstrați lucrurile simple. Scopul este de a obține cât mai mulți ochi suplimentari asupra descoperirii prejudecăților AI, astfel încât să puteți decide ce să faceți în continuare. Nu înnoroiți apele.

Un aspect spinos care trebuie descoperit implică amploarea recompensei sau a premiului pentru vânătorii de recompense care descoperă cu adevărat prejudecățile AI. Vrei ca plata să fie demonstrativă. Fără o recompensă suficient de mare, nu vei primi mulți vânători de recompense sau nu vor fi deosebit de dornici să caute părtinirile AI în sistemele tale AI. În schimb, ei s-ar putea concentra pe alte eforturi de recompense ale AI.

În plus, așa cum am menționat, doriți să încercați să reprimați îndemnul vânătorilor de recompense de a-și transforma descoperirile de părtinire AI în alte forme de aur. Dacă recompensa pare mizerabilă, i-ar putea enerva pe vânătorii de recompense să caute alte plăți mai mari. Ei ar putea adopta o abordare ransomware față de dvs. S-ar putea să declare că au o părtinire AI suculentă despre care un concurent i-ar plăcea să afle și ar putea să o folosească împotriva firmei dvs., susținând că părtinirea AI există în IA dvs. Astfel, vând părtinirea AI descoperită celui mai mare ofertant. Și așa mai departe.

Se presupune că, dacă setați recompensa la o gamă extrem de mare, cereți și potențiale probleme. Acest lucru ar putea atrage tot felul de vânători de recompense. Ei, la rândul lor, ar putea inunda rețelele sociale cu afirmații neclare că au găsit o multitudine de prejudecăți ale AI, făcând acest lucru pentru propria lor auto-promovare și fără să fi împins vreo prejudecată AI. Într-un fel, răsplata ta sporită luminează din neatenție o lumină asupra inteligenței tale și determină o mulțime de molii neplăcute să fie atrase în mod pernicios de raza de lumină strălucitoare.

O altă considerație implică accesibilitatea la AI.

Pentru a activa o posibilitate de vânătoare de recompense AI, vânătorii de recompense trebuie să obțină suficient acces la AI. Nu vor avea prea mult noroc în găsirea prejudecăților AI dacă sunt blocați complet. Dar nu doriți să renunțați la protecția dvs. de securitate cibernetică, deoarece acest lucru ar putea compromite complet sistemul dvs. AI.

Ați putea încerca să îi puneți pe vânătorii de recompense să semneze diferite declarații obligatorii din punct de vedere legal și apoi să le oferiți accesul necesar. Unii vânători de recompense nu le va plăcea acest tip de abordare. Punctul lor de vedere este că vor face doar orice le permite orice cale disponibilă public și deschisă. Ei sunt neconformiști liberi, așa cum ar fi, și nu le place să fie înșeuți, așa cum ar fi. Dacă îi faceți să-și pună semnătura pe documente juridice intimidante, mulți dintre ei vor evita să caute părtiniri AI în AI. Sau s-ar putea să fie supărați de mănușa ta legală și să decidă că vor vedea ce pot găsi prin mijloace publice, făcând acest lucru cu dorința poate stridentă de a-ți arăta cât de vulnerabil ești cu adevărat.

Mai am un alt unghi care ți-ar putea face capul să se învârtească.

Un vânător de recompense expert în AI ar putea decide să conceapă un sistem AI care să-ți examineze AI și, eventual, să descopere prejudecățile AI în AI. Acesta este producătorul de unelte care optează pentru a crea un instrument pentru a face treaba, mai degrabă decât să efectueze ei înșiși munca manuală. În loc să-ți examineze laborios AI, vânătorul de recompense experimentat în AI își petrece timpul creând un instrument AI care face același lucru. Apoi folosesc instrumentul AI pe AI-ul tău. Frumusețea este că, probabil, pot reutiliza instrumentul AI pe oricine altcineva care oferă, de asemenea, o oportunitate de vânătoare de recompense și pe AI-ul lor respectiv.

Știu la ce probabil te gândești. Dacă un instrument AI poate fi conceput pentru a examina AI pentru prejudecăți, producătorul AI care este analizat pentru distorsiuni AI ar trebui fie să creeze un astfel de instrument AI, fie să cumpere unul pentru uzul propriu. În teorie, atunci nu trebuie să se lupte cu întregul carnaval al vânătorilor de recompense, pentru început. Folosește doar AI pentru a-și găsi părtinirile AI.

Da, acesta este ceva la care vă puteți aștepta să apară treptat. Între timp, pilonul acestor eforturi va consta probabil în dezvoltatorii AI care fac vânătoare de recompense. Ei ar putea folosi diverse instrumente pentru a-și ajuta eforturile, dar, pe termen scurt, este puțin probabil să seteze pur și simplu fără minte instrumentul AI pe automat și să tragă un pui de somn, astfel încât instrumentul să le caute în totalitate părtinirea AI.

Încă nu suntem acolo.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre utilizarea vânătorii de recompense bazate pe inteligență artificială și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAADA
S (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și vânătoare de recompense AI Bias

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

În rubricile mele, am discutat deja pe larg despre utilizarea vânătorilor de recompense orientați spre bug-uri în domeniul vehiculelor autonome și al mașinilor cu conducere autonomă. Această abordare a avut loc într-adevăr în această nișă. Există dezbateri obișnuite despre dacă este o idee bună sau nu. Eforturile au fost de obicei de natură limitată, adesea ținute relativ liniștite.

Un discurs similar poate apărea atunci când accentul se îndreaptă spre vânătoarea de părtiniri AI, mai degrabă decât spre căutarea erorilor de sistem în sine. Unii sugerează că este un blestemat dacă o faci, blestemat dacă nu înțelegi.

Iata de ce.

În primul rând, pentru a fi clar, există numeroase moduri în care vehiculele autonome și mașinile cu conducere autonomă vor fi supuse unor prejudecăți ale AI, vezi acoperirea mea la linkul aici și linkul aici, pentru a numi doar câteva. Producătorii de automobile și firmele de mașini cu conducere autonomă ar părea înțelept să încerce să prevină apariția acestor părtiniri AI în sistemele lor AI. Furtuna legală și etică împotriva unor astfel de firme va fi, fără îndoială, intensă.

Este folosirea unui efort de vânătoare de recompense pentru AI o abordare adecvată în acest context specific?

Un răspuns este că da, acesta va fi la îndemână și va oferi o abundență de seturi „gratuite” de noi ochi pentru a încerca să surprindă orice prejudecată AI încorporată a unei mașini AI cu conducere autonomă sau altele asemenea. Majoritatea dezvoltatorilor AI care construiesc mașini autonome sunt ocupați să producă AI care poate conduce în siguranță o mașină de la punctul A la punctul B. Ei sunt preocupați de această capacitate de bază și nu au nici timpul și nici atenția față de orice prejudecată AI care ar putea fi undeva în AI lor.

Celălalt răspuns este că nu, permițând vânătoarea de recompense pentru vehicule autonome și mașini cu conducere autonomă pe orice bază, fie pentru bug-uri sau prejudecăți AI, ar trebui să fie evitată cu înverșunare. Argumentul este că aceste vehicule și IA lor sunt de un calibru pe viață sau pe moarte. A te încurca cu AI în orice mod ar putea fi într-un fel dăunător pentru AI și poate avea un impact asupra a ceea ce face sistemul de conducere AI.

Un contraargument la acest ultim punct este că vânătorii de recompense ar trebui să nu fie în măsură să modifice IA pe care o examinează. Astfel, nu există pericolul ca ei să se încurce cu AI și să facă ca AI în acest context să devină brusc un sistem de conducere AI nebun. Vânătorii de recompense au doar acces doar pentru citire. A le permite să meargă mai departe ar fi destul de stupid și o mare greșeală.

Contraargumentul la acest contraargument este că, permițând și încurajând vânătorii de recompense să vă examineze AI, întreaga problemă devine periculoasă. Acei vânători de recompense ar putea găsi modalități de a exploata orice erori sau părtiniri găsite. Acele exploatări, la rândul lor, ar putea fi în scopuri ocolitoare. Ar fi mai bine să nu inviti „spărgători” în casa ta, ca să spunem așa. Odată ce au terminat îmbinarea, în cele din urmă vei avea o grămadă de probleme.

Pentru cei care au sisteme AI de o magnitudine mai mică decât viața sau moartea, credința este că repercusiunile unei incursiuni de vânătoare de recompense care merge prost sunt mult mai puțin riscante. Probabil așa. Pe de altă parte, dacă o firmă și-a turnat banii într-un sistem AI pe care vânătorii de recompense reușesc să-l uzurpe, puteți presupune că daunele reputației și alte daune potențiale vor răni în continuare.

Nu există prânz gratuit când vine vorba de vânătoarea de recompense AI.

O remarcă rapidă de închidere pentru moment.

Când faimosul haiduc Jesse James a fost căutat în timpul Vechiului Vest, a fost tipărit un afiș „Wanted” care oferea o recompensă de 5,000 de dolari pentru capturarea sa (afirmând „viu sau mort”). Era o sumă destul de mare de bani la acea vreme. Unul dintre membrii proprii ai bandei a optat să-l împuște pe Jesse mort și să colecteze recompensa. Presupun că asta arată cât de eficientă poate fi o recompensă.

Va fi un lucru bun sau va fi un lucru rău?

Dacă optați să instituiți un efort de vânător de recompense AI, v-aș sugera să țineți ochii larg deschiși și să vă uitați peste umăr tot timpul. Acest lucru este prudent pentru tine și AI-ul tău. Nu știi niciodată ce s-ar putea întâmpla, inclusiv faptul că un vânător de recompense convizibil inserează într-un fel pe furiș o părtinire AI în AI-ul tău și strigă lumii că a găsit o părtinire AI fără scrupule în AI ta. Poate făcând acest lucru într-o încercare nespusă și uriașă de a căuta recompensa recompensă, plus autoproclamându-se un erou care l-a primit în esență pe lăudatul Jesse James.

Dacă mă gândesc bine, unei IA sensibile probabil că nu-i va plăcea ideea de o prevedere deconcernătoare, mort sau viu, s-ar putea specula atât de lamuritor.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- sistemele-etic-răi-complet-autonome-este-prudent-sau-inutil/