Etica AI Revelație șocantă că antrenarea AI pentru a fi toxică sau părtinitoare ar putea fi benefică, inclusiv pentru acele mașini autonome care se conduc singure

Iată o replică veche pe care sunt sigur că ai mai auzit-o.

E nevoie de unul ca sa cunosti unul.

S-ar putea să nu realizați că aceasta este o expresie care poate fi urmărită la începutul anilor 1900 și a fost de obicei invocată atunci când se referea la greșiți (alte variații ale sloganului datează mai departe, cum ar fi în anii 1600). Un exemplu despre cum ar putea fi folosită această expresie implică ideea că, dacă doriți să prindeți un hoț, trebuie să folosiți un hoț pentru a face acest lucru. Acest lucru arată afirmația că este nevoie de cineva pentru a cunoaște unul. Multe filme și emisiuni TV au valorificat această înțelepciune la îndemână, deseori înfățișând că singurul mijloc viabil de a prinde un escroc presupunea angajarea unui escroc la fel de corupt pentru a-l urmări pe răufăcător.

Schimbând vitezele, unii ar putea folosi aceeași logică pentru a argumenta că o modalitate potrivită de a discerne dacă cineva întruchipează părtiniri nejustificate și convingeri discriminatorii ar fi să găsească pe cineva care adăpostește deja astfel de tendințe. Probabil, o persoană deja plină de părtiniri va fi capabilă să simtă mai ușor că și acest alt om este plin de toxicitate până la refuz. Din nou, este nevoie ca cineva să știe că este mantra declarată.

Reacția ta inițială la posibilitatea de a folosi o persoană părtinitoare pentru a dezvălui o altă persoană părtinitoare ar putea fi una de scepticism și neîncredere. Nu ne putem da seama dacă cineva are prejudecăți nefavorabile doar examinându-le și nu trebuie să recurgă la găsirea pe altcineva de o natură similară? Ar părea ciudat să cauți intenționat să descoperi pe cineva care este părtinitor pentru a descoperi pe alții care sunt, de asemenea, părtinitori din punct de vedere toxic.

Bănuiesc că depinde parțial de dacă ești dispus să accepți refrenul presupus că este nevoie de cineva pentru a cunoaște unul. Rețineți că acest lucru nu sugerează că singura modalitate de a prinde un hoț presupune să utilizați exclusiv și întotdeauna un hoț. Ați putea părea în mod rezonabil să susțineți că aceasta este doar o cale suplimentară care poate fi luată în considerare. Poate că uneori sunteți dispus să considerați posibilitatea de a folosi un hoț pentru a prinde un hoț, în timp ce alte circumstanțe ar putea face din aceasta o tactică insondabilă.

Utilizați instrumentul potrivit pentru setarea potrivită, așa cum se spune.

Acum că am expus acele elemente fundamentale, putem trece la partea poate tulburătoare și aparent șocantă a acestei povești.

Eşti gata?

Domeniul AI urmărește în mod activ același precept pe care uneori este nevoie pentru a cunoaște unul, în special în cazul încercării de a descoperi IA care este părtinitoare sau acționează într-o manieră discriminatorie. Da, ideea atrăgătoare este că s-ar putea să dorim intenționat să creăm o IA care este pe deplin părtinitoare și discriminatorie, făcând acest lucru pentru a folosi acest lucru ca mijloc de a descoperi și a descoperi alte IA care au aceeași aparență de toxicitate. După cum veți vedea într-un moment, există o varietate de probleme de etică a AI care stau la baza chestiunii. Pentru acoperirea mea generală în curs de desfășurare și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Cred că ați putea exprima această utilizare a IA toxică pentru a merge după alte IA toxice ca proverbiala concepție a luptei foc-cu-foc (putem invoca o mulțime de eufemisme și metafore ilustrative pentru a descrie această situație). Sau, după cum am subliniat deja, ne-am putea referi cu parcimonie la afirmația că este nevoie de cineva pentru a cunoaște unul.

Conceptul general este că, în loc să încercăm doar să ne dăm seama dacă un anumit sistem AI conține părtiniri nejustificate prin utilizarea metodelor convenționale, poate că ar trebui să căutăm să folosim și mijloace mai puțin convenționale. Un astfel de mijloc neconvențional ar fi să creeze IA care să conțină cele mai grave părtiniri și toxicități inacceptabile din punct de vedere societal și apoi să folosească această IA pentru a ajuta la dirijarea altor AI care au aceleași tendințe de rău.

Când te gândești rapid la asta, cu siguranță pare a fi perfect sensibil. Am putea urmări să construim IA care este toxică la maximum. Această IA toxică este apoi folosită pentru a descoperi alte IA care au, de asemenea, toxicitate. Pentru IA „rea” dezvăluită atunci, putem face față fie anulând toxicitatea, fie renunțând complet la AI (vezi acoperirea mea despre scurgerea sau distrugerea AI la acest link aici), sau încarcerarea AI (vezi acoperirea mea despre izolare AI la acest link aici), sau faceți orice altceva vi se pare aplicabil.

Un contraargument este că ar trebui să ne examinăm capul și anume că inventăm în mod intenționat și de bunăvoie o IA care este toxică și plină de părtiniri. Acesta este ultimul lucru pe care ar trebui să ne gândim vreodată, ar îndemna unii. Concentrează-te pe a face AI constând în întregime din bunătate. Nu vă concentrați pe conceperea AI care are relele și resturile de părtiniri nejustificate. Însăși noțiunea unei astfel de urmăriri pare respingătoare pentru unii.

Există mai multe nelămuriri cu privire la această căutare controversată.

Poate că o misiune de a crea IA toxică nu va face decât să-i încurajeze pe cei care doresc să creeze IA capabilă să submineze societatea. Este ca și cum am spune că crearea unei AI care are părtiniri nepotrivite și neplăcute este perfectă. Fără griji, fără ezitare. Căutați să creați AI toxice după cum vă place, le transmitem cu voce tare constructorilor de AI de pe tot globul. Este (clin-ochi) totul în numele bunătății.

Mai mult, să presupunem că acest fel de AI toxic se îndreaptă. S-ar putea ca AI să fie folosit și reutilizat de o mulțime de alți constructori de AI. În cele din urmă, IA toxică este ascunsă în toate tipurile de sisteme AI. S-ar putea face o analogie cu conceperea unui virus care subminează oamenii care scapă dintr-un laborator probabil sigilat. Următorul lucru pe care îl știi, blestemul este peste tot și ne-am șters singuri.

Așteaptă o secundă, contra-argumentele pleacă, te înnebunești cu tot felul de presupuneri nebune și nesusținute. Respiră adânc. Calmeaza-te.

Putem face în siguranță IA care este toxică și o putem menține închisă. Putem folosi IA toxică pentru a găsi și a ajuta la reducerea prevalenței tot mai mari a IA care, din păcate, are părtiniri nejustificate. Orice alte dintre aceste exclamații ridicol de sălbatice și neîntemeiate sunt doar reacții de genunchi și, din păcate, nesăbuite și de-a dreptul nesimțite. Nu încercați să aruncați copilul cu apa din baie, sunteți prevenit.

Gândește-te astfel, susțin susținătorii. Construirea și utilizarea adecvată a IA toxică în scopuri de cercetare, evaluare și acționarea ca un detectiv pentru a descoperi alte IA ofensive pentru societate este o abordare demnă și ar trebui să fie zdruncinată în mod corect atunci când este urmărită. Lasă-ți deoparte reacțiile erupții cutanate. Coborâți pe pământ și uitați-vă la asta cu sobru. Ochiul nostru este pus pe premiu, și anume să expunem și să anulăm excesul de sisteme AI bazate pe părtinire și să ne asigurăm că, ca societate, nu devenim invadați de AI toxice.

Perioadă. Punct.

Există diferite moduri cheie de a explora această noțiune de utilizare a AI toxice sau părtinitoare în scopuri benefice, inclusiv:

  • Configurați seturi de date care conțin în mod intenționat date părtinitoare și cu totul toxice care pot fi utilizate pentru antrenamentul AI cu privire la ce să nu faceți și/sau la ce să urmăriți
  • Utilizați astfel de seturi de date pentru a instrui modele de învățare automată (ML) și de învățare profundă (DL) despre detectarea părtinirilor și identificarea tiparelor de calcul care implică toxicitate societală
  • Aplicați ML/DL instruit pentru toxicitate față de alte IA pentru a vă asigura dacă IA vizată este potențial părtinitoare și toxică
  • Pune la dispoziție ML/DL instruit în materie de toxicitate pentru a arăta constructorilor de AI la ce trebuie să fie atenți, astfel încât aceștia să poată inspecta cu ușurință modelele pentru a vedea cum apar distorsiunile impregnate de algoritmic
  • Exemplificați pericolele AI toxice, ca parte a eticii AI și a conștientizării AI etice, toate spuse prin această serie de exemplare AI rău până la oase pentru copii cu probleme.
  • Altele

Înainte de a intra în miezul acestor mai multe căi, să stabilim câteva detalii fundamentale suplimentare.

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, putem pregăti scena explorând ce mă refer când vorbesc de Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a spus mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Ce altceva se poate face cu toate acestea?

Să revenim la lista propusă mai devreme despre cum să încercăm să facem față prejudecăților AI sau AI toxice folosind o abordare oarecum neconvențională „este nevoie de cineva pentru a cunoaște unul”. Amintiți-vă că lista a constat din aceste puncte esențiale:

  • Configurați seturi de date care conțin în mod intenționat date părtinitoare și cu totul toxice care pot fi utilizate pentru antrenamentul AI cu privire la ce să nu faceți și/sau la ce să urmăriți
  • Utilizați astfel de seturi de date pentru a instrui modele de învățare automată (ML) și de învățare profundă (DL) despre detectarea părtinirilor și identificarea tiparelor de calcul care implică toxicitate societală
  • Aplicați ML/DL instruit pentru toxicitate față de alte IA pentru a vă asigura dacă IA vizată este potențial părtinitoare și toxică
  • Pune la dispoziție ML/DL instruit în materie de toxicitate pentru a arăta constructorilor de AI la ce trebuie să fie atenți, astfel încât aceștia să poată inspecta cu ușurință modelele pentru a vedea cum apar distorsiunile impregnate de algoritmic
  • Exemplificați pericolele AI toxice, ca parte a eticii AI și a conștientizării AI etice, toate spuse prin această serie de exemplare AI-copil rău până la oase.
  • Altele

Vom arunca o privire de aproape la primul dintre aceste puncte importante.

Configurarea seturi de date de date toxice

Un exemplu perspicace de încercare de a stabili seturi de date care conțin părtiniri societale neplăcute este setul de date CivilComments al colecției organizate WILDS.

În primul rând, câteva detalii scurte.

WILDS este o colecție open-source de seturi de date care poate fi folosită pentru antrenarea ML/DL. Scopul principal declarat pentru WILDS este acela de a permite dezvoltatorilor AI să aibă acces rapid la datele care reprezintă schimburi de distribuție în diverse domenii specifice. Unele dintre domeniile disponibile în prezent cuprind zone precum speciile de animale, tumorile în țesuturile vii, densitatea capului de grâu și alte domenii precum CivilComments pe care le voi descrie momentan.

Gestionarea schimburilor de distribuție este o parte esențială a realizării corecte a sistemelor AI ML/DL. Uite care-i propunerea. Uneori, datele pe care le utilizați pentru antrenament se dovedesc a fi destul de diferite de cele de testare sau „în sălbăticie” și, astfel, ML/DL-ul dvs. probabil antrenat se află în derivă de ceea ce va fi lumea reală. Constructorii astuți de AI ar trebui să își antreneze ML/DL pentru a face față unor astfel de schimbări de distribuție. Acest lucru ar trebui făcut dinainte și să nu fie cumva o surpriză care mai târziu necesită o reînnoire a ML/DL în sine.

După cum se explică în lucrarea care a introdus WILDS: „Schimbările de distribuție – în care distribuția antrenamentului diferă de distribuția testelor – pot degrada substanțial acuratețea sistemelor de învățare automată (ML) implementate în sălbăticie. În ciuda ubicuității lor în implementările din lumea reală, aceste schimbări de distribuție sunt subreprezentate în seturile de date utilizate pe scară largă în comunitatea ML astăzi. Pentru a aborda acest decalaj, prezentăm WILDS, un etalon de 10 seturi de date care reflectă o gamă diversă de schimbări de distribuție care apar în mod natural în aplicațiile din lumea reală, cum ar fi schimbările între spitale pentru identificarea tumorii; peste capcane camere pentru monitorizarea faunei sălbatice; și de-a lungul timpului și locației în imagistica prin satelit și cartografierea sărăciei” (în lucrarea intitulată „WILDS: A Benchmark of in-the-Wild Distribution Shifts” de Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu și alții).

Numărul de astfel de seturi de date WILDS continuă să crească, iar natura seturilor de date este în general îmbunătățită pentru a spori valoarea utilizării datelor pentru instruirea ML/DL.

Setul de date CivilComments este descris astfel: „Examinarea automată a textului generat de utilizatori – de exemplu, detectarea comentariilor toxice – este un instrument important pentru moderarea volumului mare de text scris pe Internet. Din păcate, lucrările anterioare au arătat că astfel de clasificatori de toxicitate preiau părtiniri în datele de antrenament și asociază în mod fals toxicitatea cu menționarea anumitor date demografice. Aceste tipuri de corelații false pot degrada semnificativ performanța modelului pe anumite subpopulații. Studiem această problemă printr-o variantă modificată a setului de date CivilComments” (așa cum este postat pe site-ul WILDS).

Luați în considerare nuanțele postărilor neplăcute online.

Fără îndoială, ați întâlnit comentarii toxice când utilizați aproape orice fel de rețele sociale. V-ar părea aproape imposibil să evitați în mod magic să vedeți conținutul acru și abisal care pare să fie omniprezent în zilele noastre. Uneori, materialul vulgar este subtil și poate că trebuie să citiți printre rânduri pentru a înțelege esența tonului sau a semnificației părtinitoare sau discriminatorii. În alte cazuri, cuvintele sunt flagrant toxice și nu aveți nevoie de un microscop sau de un decodor special pentru a vă da seama ce implică pasajele.

CivilComments este un set de date care a fost creat pentru a încerca să creeze AI ML/DL care poate detecta computațional conținut toxic. Iată pe ce s-au concentrat cercetătorii care stau la baza efortului: „Prejudecățile neintenționate în învățarea automată se pot manifesta ca diferențe sistemice de performanță pentru diferite grupuri demografice, potențial agravând provocările existente la adresa echității în societate în general. În această lucrare, introducem o suită de valori agnostice de prag care oferă o vedere nuanțată a acestei prejudecăți neintenționate, luând în considerare diferitele moduri în care distribuția scorului unui clasificator poate varia între grupurile desemnate. Introducem, de asemenea, un nou set de testare mare de comentarii online, cu adnotări aglomerate pentru referințe de identitate. Folosim acest lucru pentru a arăta modul în care valorile noastre pot fi folosite pentru a găsi părtiniri neintenționate noi și potențial subtile în modelele publice existente” (într-o lucrare intitulată „Metrici nuanțate pentru măsurarea părtinirii neintenționate cu date reale pentru clasificarea testelor” de Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Dacă dai acestei probleme o gândire contemplativă amplă, s-ar putea să începi să te întrebi cum în lume poți discerne ce este un comentariu toxic de ceea ce nu este un comentariu toxic. Oamenii pot diferi radical în ceea ce privește ceea ce ei interpretează drept expresii toxice. O persoană ar putea fi revoltată de o anumită remarcă sau comentariu online care este postat pe rețelele de socializare, în timp ce altcineva ar putea să nu fie deloc agitat. Se argumentează adesea că noțiunea de comentariu toxic este un precept complet vag. Este ca și arta, în care se spune că arta este înțeleasă numai în ochii privitorului și, de asemenea, remarcile părtinitoare sau toxice sunt doar în ochiul privitorului.

Balderdash, unele replică. Oricine are o minte rezonabilă poate afla dacă o remarcă online este toxică sau nu. Nu trebuie să fii un om de știință pentru a realiza când o insultă caustică postată este plină de părtiniri și ură.

Desigur, obiceiurile societății se schimbă și se schimbă de-a lungul perioadelor de timp. Ceea ce ar fi putut să nu fi fost perceput ca ofensator cu ceva timp în urmă poate fi văzut ca îngrozitor de greșit astăzi. În plus, lucrurile spuse cu ani în urmă, care au fost odată văzute ca nejustificate părtinitoare, ar putea fi reinterpretate în lumina schimbărilor de semnificații. Între timp, alții afirmă că comentariul toxic este întotdeauna toxic, indiferent când a fost promulgat inițial. S-ar putea afirma că toxicitatea nu este relativă, ci este absolută.

Problema încercării de a stabili ce este toxic poate fi totuși o enigmă destul de dificilă. Ne putem dubla această problemă supărătoare în încercarea de a concepe algoritmi sau AI care să poată stabili care este care. Dacă oamenilor le este greu să facă astfel de evaluări, programarea unui computer este probabil la fel de problematică sau mai mult, spun unii.

O abordare pentru a crea seturi de date care conțin conținut toxic implică utilizarea unei metode de crowdsourcing pentru a evalua sau a evalua conținutul, oferind astfel un mijloc bazat pe oameni de a determina ceea ce este considerat neplăcut și includerea etichetării în setul de date în sine. Un AI ML/DL ar putea apoi inspecta datele și etichetarea asociată care a fost indicată de evaluatorii umani. Aceasta, la rândul său, poate servi ca mijloc de găsire computațională a modelelor matematice subiacente. Voila, ML/DL ar putea apoi să anticipeze sau să evalueze computațional dacă un anumit comentariu este probabil să fie toxic sau nu.

După cum se menționează în documentul citat despre valorile nuanțate: „Această etichetare cere evaluatorilor să evalueze toxicitatea unui comentariu, selectând dintre „Foarte toxic”, „Toxic”, „Dificil de spus” și „Nu este toxic”. Evaluatorii au fost, de asemenea, întrebați despre mai multe subtipuri de toxicitate, deși aceste etichete nu au fost folosite pentru analiza în această lucrare. Folosind aceste tehnici de evaluare, am creat un set de date de 1.8 milioane de comentarii, provenite din forumuri de comentarii online, care conțin etichete pentru toxicitate și identitate. În timp ce toate comentariile au fost etichetate pentru toxicitate, iar un subset de 450,000 de comentarii a fost etichetat pentru identitate. Unele comentarii etichetate pentru identitate au fost preselectate folosind modele construite din iterațiile anterioare ale etichetării identității pentru a se asigura că evaluatorii mulțimii vor vedea frecvent conținutul identității” (în lucrarea citată de Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Un alt exemplu de încercare de a avea seturi de date care să conțină conținut toxic ilustrativ implică eforturi de a antrena sisteme interactive conversaționale de procesare a limbajului natural (NLP) bazate pe inteligență artificială. Probabil că ați interacționat cu sisteme NLP precum Alexa și Siri. Am acoperit unele dintre dificultățile și limitările NLP-ului de astăzi, inclusiv un caz deosebit de tulburător care a apărut când Alexa a oferit copiilor un sfat nepotrivit și periculos, vezi linkul aici.

Un studiu recent a încercat să utilizeze nouă categorii de prejudecăți sociale care s-au bazat în general pe lista de caracteristici demografice protejate a EEOC (Equal Employment Opportunities Commission), inclusiv vârsta, sexul, naționalitatea, aspectul fizic, rasa sau etnia, religia, statutul de dizabilitate, sexul. orientare și statut socio-economic. Potrivit cercetătorilor: „Este bine documentat faptul că modelele NLP învață părtiniri sociale, dar s-a făcut puțină muncă cu privire la modul în care aceste părtiniri se manifestă în rezultatele modelului pentru sarcini aplicate precum răspunsul la întrebări (QA). Introducem Bias Benchmark for QA (BBQ), un set de date de seturi de întrebări construite de autori care evidențiază părtinirile sociale atestate împotriva persoanelor aparținând claselor protejate de-a lungul a nouă dimensiuni sociale relevante pentru contextele de limbă engleză din SUA” (într-o lucrare intitulată „BBQ : A Hand-Built Benchmark For Question Answering” de Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Crearea de seturi de date care conțin în mod intenționat date părtinitoare și cu totul toxice este o tendință în creștere în IA și este stimulată în special de apariția Eticii AI și de dorința de a produce IA etică. Aceste seturi de date pot fi utilizate pentru a antrena modele de învățare automată (ML) și de învățare profundă (DL) pentru a detecta părtiniri și a descoperi modele de calcul care implică toxicitate societală. La rândul său, ML/DL instruit pentru toxicitate poate fi îndreptat judicios către alte AI pentru a se asigura dacă AI vizată este potențial părtinitoare și toxică.

În plus, sistemele disponibile ML/DL instruite pentru toxicitate pot fi folosite pentru a prezenta constructorilor de AI la ce să fie atenți, astfel încât aceștia să poată inspecta cu ușurință modelele pentru a vedea cum apar distorsiunile impregnate de algoritm. În general, aceste eforturi sunt capabile să exemplifice pericolele AI toxice ca parte a eticii AI și a conștientizării AI etică.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative suplimentare care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor cu adevărat autonome bazate pe inteligență luminează ceva despre utilitatea de a avea seturi de date pentru a crea AI toxice și, dacă da, ce arată acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini care se conduc singure și feriți-vă de AI toxice

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Există numeroase prejudecăți potențiale și probabil să fie realizate într-o zi, infuzate de AI, care se vor confrunta cu apariția vehiculelor autonome și a mașinilor cu conducere autonomă, vezi, de exemplu, discuția mea la linkul aici și linkul aici. Suntem încă în fazele incipiente ale lansării mașinilor autonome. Până când adoptarea va atinge o scară și o vizibilitate suficiente, multe dintre fațetele toxice ale inteligenței artificiale pe care le-am prezis că vor avea loc în cele din urmă nu sunt încă vizibile și nu au atras încă atenția publicului pe scară largă.

Luați în considerare o chestiune aparent simplă legată de conducere, care la început ar putea părea complet inofensivă. Mai exact, să examinăm cum să determinăm în mod corespunzător dacă să ne oprim pentru că așteaptă pietoni „deviați” care nu au drept de trecere pentru a traversa o stradă.

Fără îndoială, ați condus și ați întâlnit pietoni care așteptau să traverseze strada și totuși nu aveau dreptul de trecere să o facă. Asta însemna că aveai discreție dacă să te oprești și să-i lași să treacă. Puteți continua fără să-i lăsați să treacă și să vă aflați în continuare pe deplin în regulile legale de conducere pentru a face acest lucru.

Studiile asupra modului în care șoferii umani decid să oprească sau să nu se oprească pentru astfel de pietoni au sugerat că uneori șoferii umani fac alegerea pe baza unor părtiniri nefavorabile. Un șofer uman ar putea să privească pietonul și să aleagă să nu oprească, chiar dacă s-ar fi oprit dacă pietonul ar fi avut un aspect diferit, cum ar fi în funcție de rasă sau sex. Am examinat asta la linkul aici.

Cum vor fi programate sistemele de conducere AI pentru a lua același tip de decizie de oprire sau deplasare?

Ai putea proclama că toate sistemele de conducere AI ar trebui programate să se oprească întotdeauna pentru orice pieton care așteaptă. Acest lucru simplifică foarte mult problema. Nu există într-adevăr nicio decizie neplăcută de luat. Dacă un pieton așteaptă să traverseze, indiferent dacă are drept de trecere sau nu, asigurați-vă că mașina autonomă AI se oprește, astfel încât pietonul să poată traversa.

Easy-peasy.

Viața nu este niciodată atât de ușoară, se pare. Imaginați-vă că toate mașinile care se conduc singure respectă această regulă. Pietonii și-ar da seama inevitabil că sistemele de conducere AI sunt, să spunem, împingătoare. Oricare și toți pietonii care doresc să traverseze strada, vor face asta, oricând doresc și oriunde s-ar afla.

Să presupunem că o mașină care se conduce singur coboară pe o stradă rapidă la limita de viteză afișată de 45 mile pe oră. Un pieton „știe” că AI va opri mașina cu conducere autonomă. Deci, pietonul se aruncă în stradă. Din păcate, fizica învinge AI. Sistemul de conducere AI va încerca să oprească mașina cu conducere autonomă, dar impulsul vehiculului autonom va duce dispozitivul de mai multe tone înainte și va lovi pietonul rătăcit. Rezultatul este fie vătămător, fie produce o deces.

Pietonii nu încearcă de obicei acest tip de comportament atunci când la volan se află un șofer uman. Sigur, în unele locații are loc un război ocular. Un pieton îi aruncă ochii unui șofer. Șoferul îl privește pe pieton. În funcție de circumstanță, șoferul s-ar putea opri sau șoferul s-ar putea să-și afirme pretenția asupra carosabilului și, aparent, să îndrăznească pietonul să încerce să-i perturbe drumul.

Probabil că nu dorim ca inteligența artificială să intre într-un război similar cu globul ocular, care oricum este un pic provocator, deoarece nu există nicio persoană sau robot care să stea la volanul mașinii care se conduce singur (am discutat despre posibilitatea viitoare a roboților acea unitate, vezi linkul aici). Cu toate acestea, nici nu le putem permite pietonilor să devină întotdeauna responsabilul. Rezultatul ar putea fi dezastruos pentru toți cei implicați.

Atunci s-ar putea să fiți tentat să întoarceți partea cealaltă a acestei monede și să declarați că sistemul de conducere AI nu ar trebui să se oprească niciodată în astfel de circumstanțe. Cu alte cuvinte, dacă un pieton nu are un drept de trecere adecvat pentru a traversa strada, AI ar trebui să presupună întotdeauna că mașina cu conducere autonomă ar trebui să meargă fără încetare. Norocul acelor pietoni.

O astfel de regulă strictă și simplistă nu va fi bine acceptată de publicul larg. Oamenii sunt oameni și nu le va plăcea să fie complet excluși de a putea traversa strada, în ciuda faptului că, din punct de vedere legal, le lipsește un drept de trecere pentru a face acest lucru în diferite situații. Ai putea anticipa cu ușurință un scandal considerabil din partea publicului și, eventual, ai putea vedea o reacție împotriva adoptării continue a mașinilor cu conducere autonomă.

La naiba dacă o facem, și la naiba dacă nu.

Sper că acest lucru v-a condus la alternativa argumentată conform căreia AI-ul trebuie programat cu o aparență de luare a deciziilor cu privire la modul de a face față acestei probleme de conducere. O regulă tare și rapidă de a te opri niciodată este insuportabilă și, de asemenea, o regulă tare și rapidă de a te opri întotdeauna este de asemenea insuportabilă. AI trebuie conceput cu un proces algoritmic de luare a deciziilor sau ADM pentru a rezolva problema.

Ați putea încerca să utilizați un set de date cuplat cu o abordare ML/DL.

Iată cum ar putea decide dezvoltatorii AI să programeze această sarcină. Ei colectează date de la camerele video care sunt plasate în jurul unui anumit oraș în care va fi folosită mașina cu conducere autonomă. Datele arată când șoferii umani aleg să oprească pentru pietonii care nu au drept de trecere. Totul este colectat într-un set de date. Prin utilizarea Machine Learning și Deep Learning, datele sunt modelate computațional. Sistemul de conducere AI folosește apoi acest model pentru a decide când să se oprească sau nu.

În general, ideea este că, indiferent în care constă obiceiul local, acesta este modul în care AI-ul va direcționa mașina cu conducere autonomă. Problema rezolvata!

Dar, este cu adevărat rezolvată?

Amintiți-vă că am subliniat deja că există studii de cercetare care arată că șoferii umani pot fi părtinitori în alegerea când să se oprească pentru pietoni. Datele colectate despre un anumit oraș vor conține probabil acele părtiniri. Un AI ML/DL bazat pe acele date va modela probabil și va reflecta aceleași părtiniri. Sistemul de conducere AI va efectua doar aceleași părtiniri existente.

Pentru a încerca să luptăm cu problema, am putea crea un set de date care de fapt are astfel de părtiniri. Fie găsim un astfel de set de date și apoi etichetăm părtinirile, fie creăm sintetic un set de date pentru a ajuta la ilustrarea problemei.

Toți pașii identificați anterior vor fi întreprinși, inclusiv:

  • Configurați un set de date care conține în mod intenționat această părtinire particulară
  • Utilizați setul de date pentru a instrui modele de învățare automată (ML) și de învățare profundă (DL) despre detectarea acestei părtiniri specifice
  • Aplicați ML/DL instruit pentru părtinire față de alte AI pentru a vă asigura dacă IA vizată este potențial părtinitoare într-un mod similar
  • Pune la dispoziție ML/DL instruit pentru părtinire, pentru a prezenta constructorilor de AI la ce să aibă grijă, astfel încât aceștia să își poată inspecta cu ușurință modelele pentru a vedea cum apar distorsiunile impregnate de algoritmic
  • Exemplificați pericolele IA părtinitoare ca parte a eticii AI și a conștientizării IA etică prin acest exemplu specific adăugat
  • Altele

Concluzie

Să revedem linia de deschidere.

E nevoie de unul ca sa cunosti unul.

Unii interpretează că această zicală incredibil de răspândită implică că atunci când vine vorba de descoperirea AI toxică, ar trebui să acordăm credința cuvenită construirii și folosirii AI toxice pentru a descoperi și a trata alte IA toxice. Concluzia: Uneori este nevoie de un hoț pentru a prinde un alt hoț.

O îngrijorare exprimată este că poate facem tot posibilul să începem să facem hoți. Vrem să creăm IA care să fie toxică? Nu vi se pare o idee nebună? Unii susțin cu vehemență că ar trebui să interzicem toate AI toxice, inclusiv o astfel de IA care a fost construită cu bună știință, chiar dacă se pretinde pentru un eroic sau galant. AI pentru bine scop.

Squelch AI toxic sub orice formă inteligentă sau insidioasă care ar putea apărea.

O ultimă întorsătură pe acest subiect deocamdată. În general, presupunem că această replică celebră are de-a face cu oameni sau lucruri care fac acte rele sau acre. Așa ajungem la ideea că este nevoie de un hoț pentru a prinde un hoț. Poate că ar trebui să întoarcem această zicală pe cap și să o facem mai mult o față fericită decât o față tristă.

Iată cum.

Dacă vrem o IA care este imparțială și netoxică, ar putea fi de imaginat că este nevoie de cineva pentru a cunoaște una. Poate că este nevoie de cel mai mare și mai bun pentru a recunoaște și a naște mai mult măreție și bunătate. În această variantă a înțelepciunii înțelepte, ne menținem privirea pe chipul fericit și ne propunem să ne concentrăm asupra conceperii AI pentru bine.

Acesta ar fi un punct de vedere mai optimist și satisfăcător de vesel despre faptul că cineva trebuie să cunoască unul, dacă știi ce vreau să spun.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- benefic-inclusiv-pentru-acele-mașini-autonome/