Etica AI sună alarme despre spectrul care se profilează al prejudecăților AI la scară globală masivă, alimentat în special prin sisteme complet autonome care se profilează

Platon a afirmat celebru că o decizie bună se bazează pe cunoaștere și nu pe numere.

Această perspectivă ascuțită pare uimitor de prevestitoare despre inteligența artificială (AI) de astăzi.

Vedeți, în ciuda titlurilor zgomotoase care proclamă în prezent că inteligența artificială a ajuns cumva la conștiință și întruchipează cunoștințele și raționamentul uman, vă rugăm să fiți conștienți de faptul că această hiperbolă exagerată a IA este o prevaricare insidioasă, deoarece încă ne bazăm pe strângerea numerelor în procesul decizional al algoritmului de astăzi (ADM). ) așa cum este întreprins de sistemele AI. Chiar și lăudatul Machine Learning (ML) și Deep Learning (DL) constau în potrivirea modelelor de calcul, ceea ce înseamnă că numerele sunt încă în centrul utilizării exaltate a ML/DL.

Nu știm dacă AI să ajungă la sensibilitate este posibilă. S-ar putea, s-ar putea să nu fie. Nimeni nu poate spune cu siguranță cum ar putea apărea asta. Unii cred că ne vom îmbunătăți treptat eforturile de IA computațională, astfel încât să apară spontan o formă de simțire. Alții cred că AI ar putea intra într-un fel de supernovă computațională și ar putea ajunge la sensibilitate aproape de la sine (denumită de obicei singularitate). Pentru mai multe despre aceste teorii despre viitorul AI, vedeți acoperirea mea la linkul aici.

Deci, să nu ne păcălim și să credem în mod fals că IA contemporană este capabilă să gândească ca oamenii. Presupun că întrebarea vine atunci în prim-plan cu privire la remarca lui Platon cu privire la faptul dacă putem avea decizii bune bazate pe IA computațională, mai degrabă decât pe IA sensibilă. S-ar putea să fii surprins să știi că aș afirma că într-adevăr putem lua decizii bune de sistemele AI de zi cu zi.

Cealaltă față a acelei monede este că putem avea și sisteme AI de zi cu zi care iau decizii proaste. Decizii putrede. Deciziile care sunt pline de părtiniri nefavorabile și inechități. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Acoperirea mea extinsă despre AI Ethics și Ethical AI poate fi găsită la acest link aici și acest link aici, Doar pentru a numi câteva.

Pentru această discuție, aș dori să aduc în discuție un aspect deosebit de îngrijorător despre AI despre care cei din arena Eticii AI se plâng pe bună dreptate și încearcă să crească gradul de conștientizare. Chestiunea îngrijorătoare și deconcernătoare este de fapt destul de simplu de subliniat.

Aici este: Inteligența artificială are potențialul real de a promulga părtiniri bazate pe inteligență artificială la o scară globală alarmantă.

Și când spun „la scară”, acest lucru înseamnă, în mod demonstrat, la scară masivă la nivel mondial. Scară uriașă. Scară care iese din scară.

Înainte de a mă scufunda în modul în care va avea loc această scalare a prejudecăților înfundate în AI, să ne asigurăm că toți avem o aparență a modului în care AI poate încorpora părtiniri și inechități nejustificate. Amintiți-vă din nou că aceasta nu este de o varietate sensibilă. Toate acestea sunt de un calibru computațional.

S-ar putea să fii perplex cu privire la modul în care AI ar putea pătrunde aceleași tipuri de părtiniri adverse și inechități pe care le fac oamenii. Tindem să ne gândim la IA ca fiind complet neutră, imparțială, pur și simplu o mașină care nu are nicio influență emoțională și gândire greșită pe care le-ar putea avea oamenii. Unul dintre cele mai obișnuite mijloace prin care AI se încadrează în prejudecățile și inechitățile se întâmplă atunci când se utilizează învățarea automată și învățarea profundă, parțial ca urmare a bazei pe datele colectate despre modul în care oamenii iau decizii.

Permiteți-mi un moment să elaborez.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Potrivirea modelelor computaționale de învățare automată sau de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor sau ADM al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Acest lucru ne aduce la problema prejudecăților cu AI la scară.

În primul rând, să aruncăm o privire la modul în care părtinirile umane ar putea crea inechități. O companie care acordă credite ipotecare decide să angajeze un agent de credite ipotecare. Agentul ar trebui să examineze cererile consumatorilor care doresc să obțină un împrumut pentru locuință. După ce evaluează o cerere, agentul ia o decizie fie de a acorda împrumutul, fie de a refuza împrumutul. Ușor-peasy.

De dragul discuției, să ne imaginăm că un agent de credit uman poate analiza 8 împrumuturi pe zi, luând aproximativ o oră per revizuire. Într-o săptămână de lucru de cinci zile, agentul face aproximativ 40 de analize de împrumut. Pe o bază anuală, agentul face în mod obișnuit aproximativ 2,000 de analize de împrumut, dă sau ia puțin.

Compania dorește să-și mărească volumul de revizuiri de credite, astfel că firma angajează 100 de agenți de creditare suplimentari. Să presupunem că toți au aproximativ aceeași productivitate și că acest lucru implică că acum putem gestiona aproximativ 200,000 de împrumuturi pe an (la o rată de 2,000 de revizuiri de împrumuturi pe an per agent). Se pare că am intensificat cu adevărat procesarea cererilor de împrumut.

Se pare că compania elaborează un sistem AI care poate face în esență aceleași analize de împrumut ca și agenții umani. AI rulează pe servere de computer din cloud. Prin intermediul infrastructurii cloud, compania poate adăuga cu ușurință mai multă putere de calcul pentru a găzdui orice volum de revizuiri de împrumut care ar putea fi necesar.

Cu configurația existentă AI, aceștia pot face 1,000 de revizuiri de împrumut pe oră. Acest lucru se poate întâmpla și 24×7. Nu este nevoie de timp de vacanță pentru AI. Fără pauze de prânz. Inteligența artificială funcționează non-stop, fără să zgârâie că este suprasolicitat. Vom spune că în acest ritm aproximativ, AI poate procesa aproape 9 milioane de cereri de împrumut pe an.

Observați că am trecut de la 100 de agenți umani care puteau face 200,000 de împrumuturi pe an și am sărit de multe ori la numărul mult crescut de 9 milioane de recenzii pe an prin intermediul sistemului AI. Ne-am mărit dramatic procesarea cererilor de împrumut. Nu există nici o îndoială.

Pregătește-te pentru lovitura care poate te va face să cazi de pe scaun.

Să presupunem că unii dintre agenții noștri umani iau deciziile de împrumut pe baza unor părtiniri nefavorabile. Poate că unii acordă factorilor rasiali un rol cheie în decizia de împrumut. Poate că unii folosesc genul. Alții folosesc vârsta. Si asa mai departe.

Din cele 200,000 de analize anuale ale împrumuturilor, câte sunt făcute sub privirea greșită a părtinirilor și inechităților negative? Poate 10%, adică aproximativ 20,000 din cererile de împrumut. Mai rău, să presupunem că este vorba de 50% din cererile de împrumut, caz în care există 100,000 de cazuri anuale destul de îngrijorătoare de decizii de împrumut decise greșit.

Asta e rău. Dar încă trebuie să luăm în considerare o posibilitate și mai înfricoșătoare.

Să presupunem că AI are o părtinire ascunsă care constă din factori precum rasa, sexul, vârsta și altele asemenea. Dacă 10% din analizele anuale de împrumut sunt supuse acestei neplăceri, avem 900,000 de cereri de împrumut care sunt tratate necorespunzător. Este mult mai mult decât ar putea face agenții umani, în primul rând datorită aspectelor legate de volum. Acei 100 de agenți, dacă toți ar face în totalitate o evaluare inechitabilă, ar putea cel mult să facă acest lucru pe baza celor 200,000 de analize anuale ale împrumutului. AI ar putea face același lucru pe o scară mult mai mare din cele 9,000,000 de analize anuale.

Hopa!

Aceasta este o părtinire cu adevărat bazată pe AI la o scară extraordinară.

Când prejudecățile nefavorabile sunt îngropate într-un sistem AI, aceeași scalare care părea avantajoasă este acum răsturnată și devine un rezultat de scalare monstruos de ademenitor (și deranjant). Pe de o parte, AI poate crește în mod benefic pentru a gestiona mai mulți oameni care solicită împrumuturi pentru locuințe. La suprafață, pare extraordinar AI pentru bine. Ar trebui să ne batem pe spate pentru că probabil am extins șansele ca oamenii să obțină împrumuturile necesare. Între timp, dacă AI-ul are prejudecăți încorporate, scalarea va fi un rezultat extrem de putrezit și ne trezim îngroziți de AI pentru rău, la o scară cu adevărat masivă.

Proverbiala sabie cu două tăișuri.

AI poate crește radical accesul la luarea deciziilor pentru cei care caută serviciile și produsele dorite. Gata cu forța de muncă constrânsă de oameni. Remarcabil! Cealaltă tăietură a sabiei este că, dacă AI conține rele, cum ar fi inechitățile ascunse, aceeași scalare masivă va promulga acel comportament neplăcut la o scară de neimaginat. Exasperant, greșit, rușinos și nu putem permite ca societatea să cadă într-o prăpastie atât de urâtă.

Oricine a fost nedumerit cu privire la motivul pentru care trebuie să renunțăm la importanța eticii AI ar trebui să realizeze acum că fenomenul de scalare a AI este un motiv al naibii de important pentru a urmări IA etică. Să luăm un moment pentru a lua în considerare pe scurt câteva dintre preceptele cheie ale IA etică pentru a ilustra ceea ce ar trebui să fie un accent vital pentru oricine creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv cu metodologii transparente și auditabile, surse de date și proceduri de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui să fie respectate în general, în timp ce este o situație mult mai complicată, când codarea AI trebuie să fie adevărata cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. Vă rugăm să fiți conștienți de faptul că este nevoie de un sat pentru a concepe și a folosi IA. Pentru care întregul sat trebuie să fie atent la Etica AI.

Cum funcționează scalarea prejudecăților sub formă de IA

Acum că am ajuns la masa că AI poate conține părtiniri, suntem gata să examinăm câteva dintre motivele pentru care scalarea AI este atât de intruzivă.

Luați în considerare această listă cheie de zece motive de bază:

  1. Replicat cu ușurință
  2. Cost minim la scară
  3. Îngrozitor de consistent
  4. Lipsa de auto-reflecție
  5. Supunere oarbă
  6. Nu înclină mâna
  7. Destinatarul nebănuitor
  8. Tind să nu stimuleze provocarea
  9. Falsa aura de corectitudine
  10. Greu de respins

Voi explora pe scurt fiecare dintre aceste puncte cruciale.

Când încercați să creșteți cu munca umană, șansele sunt că acest lucru va fi enorm de complicat. Trebuie să găsești și să angajezi oamenii. Trebuie să-i antrenezi să facă treaba. Trebuie să le plătiți și să țineți cont de dorințele și nevoile umane. Comparați acest lucru cu un sistem AI. Îl dezvoltați și îl puneți în uz. În afară de o anumită cantitate de întreținere continuă a AI, puteți sta pe loc și îl lăsați să se proceseze la nesfârșit.

Aceasta înseamnă că AI este ușor de replicat. Puteți adăuga mai multă putere de calcul, pe măsură ce sarcina și volumul ar putea solicita acest lucru (nu sunteți angajat sau concediat). Utilizarea globală se face prin apăsarea unui buton și se realizează prin disponibilitatea internetului la nivel mondial. Extinderea este un cost minim în comparație cu a proceda la fel cu munca umană.

Munca umană este notoriu inconsecventă. Când ai echipe mari, ai o adevărată cutie de ciocolată în care nu știi niciodată ce ai putea avea pe mâini. Este posibil ca sistemul AI să fie foarte consistent. Repeta aceleasi activitati iar si iar, de fiecare data fiind esential la fel ca si ultima.

În mod normal, ne-ar plăcea consistența AI. Dacă oamenii sunt predispuși la părtiniri, vom avea întotdeauna o parte din munca noastră umană care se rătăcește. AI, dacă este pur imparțial în construcția și eforturile sale de calcul, ar fi de departe mai consistent. Problema este însă că, dacă AI are părtiniri ascunse, consistența acum este dureros de dezgustătoare. Şansele sunt că comportamentul părtinitor va fi realizat în mod constant, iar şi iar.

Oamenii sperăm că ar avea o oarecare bănuială de auto-reflecție și poate să se prindă luând decizii părtinitoare. Nu spun că toți ar face asta. De asemenea, nu spun că cei care se prind pe ei înșiși își vor îndrepta neapărat greșelile. În orice caz, cel puțin unii oameni s-ar corecta uneori.

Este puțin probabil ca AI să aibă vreo formă de autoreflecție computațională. Aceasta înseamnă că AI continuă să facă ceea ce face. Se pare că ar fi zero șanse ca AI să detecteze că încalcă echitatea. Acestea fiind spuse, am descris unele eforturi pentru a face față acestui lucru, cum ar fi construirea de componente de etică AI în cadrul AI (vezi linkul aici) și conceperea AI care monitorizează alte AI pentru a discerne activitățile AI neetice (vezi linkul aici).

Lipsită de orice fel de auto-reflecție, AI este, de asemenea, probabil să aibă o supunere oarbă față de orice a fost instruit să facă. Oamenii ar putea să nu fie atât de ascultători. Sunt șanse ca unii oameni care îndeplinesc o sarcină să se întrebe dacă sunt probabil călăuziți către un teritoriu de inechitate. Ei ar avea tendința să respingă comenzile lipsite de etică sau poate să meargă pe calea avertizorilor (vezi acoperirea mea la acest link aici). Nu vă așteptați ca IA contemporană de zi cu zi să-și pună la îndoială programarea.

În continuare, ne întoarcem la cei care folosesc AI. Dacă ai căuta un împrumut pentru locuință și ai vorbit cu un om, s-ar putea să fii în alertă dacă persoana umană îți dă o zguduire corectă. Când folosesc un sistem AI, majoritatea oamenilor par să fie mai puțin suspicioși. Ei presupun adesea că AI-ul este corect și, prin urmare, nu se enervează la fel de repede. Inteligența artificială pare să liniștească oamenii într-o transă „este doar o mașinărie”. În plus, poate fi greu să încerci să protestezi împotriva AI. În schimb, a protesta asupra modului în care ai fost tratat de un agent uman este mult mai ușor și mult mai frecvent acceptat și presupus că este posibil.

În total, IA care este plină de părtiniri are un avans dezonorant față de oamenii pătrunși de părtiniri, și anume în ceea ce privește posibilitatea ca AI să implementeze masiv acele părtiniri la o scară gigantică, făcând acest lucru fără a fi prins la fel de ușor sau a avea consumatori. să realizeze ce se întâmplă în mod tulburător.

În acest moment al acestei discuții, aș pune pariu că sunteți dornic de câteva exemple suplimentare care ar putea prezenta enigma prejudecăților cu IA la scară.

Mă bucur că ai întrebat.

Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome, bazate pe inteligență artificială, luminează ceva despre prejudecățile cu IA la scară și, dacă da, ce arată acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele pe care AI le conduce în întregime pe cont propriu și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină cu autovehicule la nivelul 5, pe care nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și prejudecăți ale inteligenței artificiale la scară

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și posibilitățile etice AI care implică explorarea prejudecăților bazate pe AI care sunt promulgate la scară largă.

Să folosim un exemplu simplu. O mașină autonomă bazată pe inteligență este în curs de desfășurare pe străzile din cartierul tău și pare să conducă în siguranță. La început, ai acordat o atenție deosebită de fiecare dată când ai reușit să arunci o privire asupra mașinii care se conduce singur. Vehiculul autonom s-a remarcat prin raftul său de senzori electronici care includeau camere video, unități radar, dispozitive LIDAR și altele asemenea. După multe săptămâni în care mașina cu conducere autonomă se plimbă prin comunitatea ta, acum abia dacă observi. În ceea ce vă privește, este doar o altă mașină pe drumurile publice deja aglomerate.

Ca să nu crezi că este imposibil sau neplauzibil să te familiarizezi cu a vedea mașini cu conducere autonomă, am scris frecvent despre modul în care locurile care fac obiectul probelor de mașini cu conducere autonomă s-au obișnuit treptat să vadă vehiculele armonioase, vezi analiza mea la acest link aici. Mulți dintre localnici s-au mutat în cele din urmă de la gura căscată uimitoare, la acum emitând un căscat expansiv de plictiseală pentru a asista la acele mașini care se conduc singure.

Probabil că motivul principal în acest moment pentru care ar putea observa vehiculele autonome este din cauza factorului de iritare și exasperare. Sistemele de conducere bazate pe inteligență artificială se asigură că mașinile respectă toate limitele de viteză și regulile de circulație. Pentru șoferii umani agitați în mașinile lor tradiționale conduse de oameni, uneori te enervezi când rămâi în spatele mașinilor cu autonomie bazate pe inteligență artificială care respectă strict legea.

Este ceva cu care ar putea fi nevoie să ne obișnuim cu toții, pe drept sau greșit.

Înapoi la povestea noastră.

Se pare că încep să apară două preocupări nepotrivite cu privire la mașinile care se conduc singure bazate pe inteligență artificială, altfel inofensive și în general binevenite, în special:

A. În cazul în care AI-ul străbate mașinile cu conducere autonomă pentru a ridica curse, se profila ca o preocupare vocalizată

b. Modul în care AI îi tratează pe pietonii în așteptare care nu au drept de trecere a devenit o problemă presantă

La început, AI-ul cutreiera mașinile cu conducere autonomă prin tot orașul. Oricine dorea să solicite o plimbare cu mașina autonomă avea, în esență, șanse egale de a primi una. Treptat, AI a început să mențină în primul rând mașinile cu conducere autonomă în roaming într-o singură secțiune a orașului. Această secțiune a generat mai mult bani, iar sistemul AI a fost programat pentru a încerca să maximizeze veniturile ca parte a utilizării în comunitate.

Membrii comunității din zonele sărace ale orașului erau mai puțin probabil să poată ajunge cu o mașină care se conduce singur. Acest lucru se datora faptului că mașinile cu conducere autonomă erau mai departe și roaming în partea cu venituri mai mari a localității. Când o solicitare a venit dintr-o parte îndepărtată a orașului, orice solicitare dintr-o locație mai apropiată care se afla probabil în partea „stimată” a orașului avea o prioritate mai mare. În cele din urmă, disponibilitatea de a obține o mașină cu conducere autonomă în orice alt loc decât în ​​partea mai bogată a orașului a fost aproape imposibilă, în mod exasperant pentru cei care locuiau în acele zone acum lipsite de resurse.

Ați putea afirma că AI a ajuns aproape la o formă de discriminare prin proxy (denumită adesea discriminare indirectă). AI nu a fost programat să evite acele cartiere mai sărace. În schimb, a „învățat” să facă acest lucru prin utilizarea ML/DL.

Ideea este că șoferii umani cu ridesharing erau cunoscuți pentru că făceau același lucru, deși nu neapărat exclusiv din cauza unghiului de a face bani. Au existat unii dintre șoferii umani care participau la partajare, care aveau o părtinire neplăcută de a ridica călăreți în anumite părți ale orașului. Acesta a fost un fenomen oarecum cunoscut, iar orașul a pus în aplicare o abordare de monitorizare pentru a-i surprinde pe șoferi umani care fac acest lucru. Șoferii umani ar putea avea probleme pentru efectuarea unor practici de selecție neplăcute.

S-a presupus că AI nu va cădea niciodată în același tip de nisipuri mișcătoare. Nu a fost înființată nicio monitorizare specializată pentru a ține evidența spre unde se îndreptau mașinile cu conducere autonomă bazate pe inteligență artificială. Abia după ce membrii comunității au început să se plângă, liderii orașului și-au dat seama ce se întâmplă. Pentru mai multe despre aceste tipuri de probleme la nivel de oraș pe care le vor prezenta vehiculele autonome și mașinile cu conducere autonomă, vedeți acoperirea mea la acest link aici și care descrie un studiu condus de Harvard pe care l-am coautor pe această temă.

Acest exemplu de aspecte de roaming ale mașinilor care se conduc singure bazate pe inteligență artificială ilustrează indicația anterioară conform căreia pot exista situații care implică oameni cu prejudecăți nefavorabile, pentru care sunt puse controale și că IA care înlocuiește acești șoferi umani este lăsată la ochi. liber. Din nefericire, AI poate deveni apoi treptat în prejudecăți similare și poate face acest lucru fără a exista suficiente balustrade.

Acest lucru evidențiază, de asemenea, prejudecățile cu AI la scară.

În cazul șoferilor umani, s-ar fi putut avea câțiva aici sau colo care exercitau o anumită formă de inechitate. Pentru sistemul de conducere AI, este, de obicei, un astfel de AI unificat pentru o întreagă flotă de mașini cu conducere autonomă. Astfel, s-ar fi putut începe cu cincizeci de mașini cu conducere autonomă în oraș (toate conduse de același cod AI) și am crescut treptat până să spunem 500 de mașini cu conducere autonomă (toate fiind conduse de același cod AI). Deoarece toate aceste cinci sute de mașini cu conducere autonomă sunt conduse de aceeași IA, toate sunt în mod corespunzător supuse acelorași părtiniri și inechități derivate încorporate în AI.

Scalare ne doare în acest sens.

Un al doilea exemplu implică AI care determină dacă să se oprească pentru pietonii care așteaptă care nu au drept de trecere să traverseze o stradă.

Fără îndoială, ați condus și ați întâlnit pietoni care așteptau să traverseze strada și totuși nu aveau dreptul de trecere să o facă. Asta însemna că aveai discreție dacă să te oprești și să-i lași să treacă. Puteți continua fără să-i lăsați să treacă și să vă aflați în continuare pe deplin în regulile legale de conducere pentru a face acest lucru.

Studiile asupra modului în care șoferii umani decid să oprească sau să nu se oprească pentru astfel de pietoni au sugerat că uneori șoferii umani fac alegerea pe baza unor părtiniri nefavorabile. Un șofer uman ar putea să privească pietonul și să aleagă să nu oprească, chiar dacă s-ar fi oprit dacă pietonul ar fi avut un aspect diferit, cum ar fi în funcție de rasă sau sex. Am examinat asta la linkul aici.

Imaginați-vă că mașinile cu conducere autonomă bazate pe inteligență artificială sunt programate să se ocupe de întrebarea dacă să se oprească sau nu pentru pietonii care nu au drept de trecere. Iată cum au decis dezvoltatorii AI să programeze această sarcină. Ei au colectat date de la camerele video ale orașului, care sunt amplasate peste tot în oraș. Datele arată șoferii umani care opresc pentru pietonii care nu au drept de trecere și șoferii umani care nu opresc. Totul este colectat într-un set mare de date.

Prin utilizarea Machine Learning și Deep Learning, datele sunt modelate computațional. Sistemul de conducere AI folosește apoi acest model pentru a decide când să se oprească sau nu. În general, ideea este că, indiferent în care constă obiceiul local, acesta este modul în care AI-ul va direcționa mașina cu conducere autonomă.

Spre surprinderea liderilor orașului și a locuitorilor, AI a optat evident să se oprească sau să nu se oprească în funcție de aspectul pietonului, inclusiv de rasă și gen. Senzorii mașinii cu conducere autonomă ar scana pietonul în așteptare, ar introduce aceste date în modelul ML/DL, iar modelul ar transmite către AI dacă să se oprească sau să continue. Din păcate, orașul avea deja o mulțime de părtiniri ale șoferului uman în acest sens, iar AI-ul mima acum același lucru.

Acest exemplu ilustrează faptul că un sistem AI ar putea doar să dubleze prejudecățile nefavorabile deja preexistente ale oamenilor. În plus, face acest lucru la scară. Orice șofer uman ar fi fost uneori învățat să facă această formă neplăcută de selecție sau poate că a fost ales personal să facă acest lucru, dar șansele sunt ca cea mai mare parte a șoferilor umani să nu facă acest lucru în masă.

În contrast strident, sistemul de conducere AI care este utilizat pentru a conduce mașinile cu conducere autonomă este probabil să efectueze în mod oditor de consecvent și sigur părtinirea derivată.

Concluzie

Există o multitudine de modalități de a încerca și de a evita conceperea AI care are părtiniri nefavorabile sau care, în timp, culege părtiniri. Pe cât posibil, ideea este să prindeți problemele înainte de a trece la viteză mare și de a accelera pentru scalare. Să sperăm că prejudecățile nu ies pe ușă, ca să spunem așa.

Să presupunem totuși că într-un fel sau altul vor apărea prejudecăți în AI. Odată ce sunteți implementat la scară masivă cu AI, nu puteți face doar una dintre acele noțiuni adesea proclamate de techie „foc și uită”. Trebuie să țineți cont de ceea ce face AI și să căutați să detectați orice prejudecăți nefavorabile care trebuie corectate.

După cum s-a subliniat mai devreme, o abordare implică asigurarea faptului că dezvoltatorii AI sunt conștienți de Etica AI și, astfel, îi încurajează să fie atenți pentru a programa AI pentru a evita aceste probleme. O altă cale constă în a avea IA să se auto-monistreze pentru comportamente neetice și/sau să aibă o altă componentă AI care monitorizează alte sisteme AI pentru comportamente potențial neetice. Am acoperit numeroase alte soluții potențiale în scrierile mele.

Un ultim gând deocamdată. După ce a început această discuție cu un citat al lui Platon, ar fi potrivit să închei discursul cu încă o declarație vicleană a lui Platon.

Platon a afirmat că nu este rău în repetarea unui lucru bun.

Ușurința de a merge la scară cu AI este cu siguranță un mijloc viabil de a atinge o astfel de aspirație optimistă atunci când AI este de AI pentru bine varietate. Savurăm să repetăm ​​un lucru bun. Când AI este AI pentru rău și plini de prejudecăți și inechități nefavorabile, ne-am putea sprijini pe remarcile lui Platon și ne-am putea spune că este un rău abundent în repetarea unui lucru rău.

Să ascultăm cu atenție cuvintele înțelepte ale lui Platon și să ne gândim AI în consecință.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- la scară-globală-în special alimentată-prin-sisteme-complet-autonome/