Etica AI care spune că IA ar trebui să fie implementată în special atunci când prejudecățile umane sunt abundente

Oamenii au ajuns să-și cunoască limitele.

S-ar putea să-ți aduci aminte de replica asemănătoare despre cunoașterea limitărilor noastre, așa cum a fost rostită de personajul Dirty Harry în filmul din 1973 intitulat MAGNUM FORCE (după cuvintele rostite de actorul Clint Eastwood în rolul său memorabil ca inspectorul Harry Callahan). Ideea generală este că uneori avem tendința de a trece cu vederea propriile noastre limite și de a ajunge în apă caldă în consecință. Fie din cauza orgoliului, a egocentrismului sau pur și simplu orb față de propriile noastre capacități, preceptul de a fi conștienți și de a lua în considerare în mod explicit înclinațiile și deficiențele noastre este extrem de sensibil și de ajutor.

Să adăugăm o nouă întorsătură sfatului înțelept.

Inteligența artificială (IA) a ajuns să-și cunoască limitele.

Ce vreau să spun prin acea variantă a sloganului venerat?

Se dovedește că graba inițială de a folosi IA modernă ca soluție plină de speranță a problemelor lumii a devenit murdară și total tulburată de conștientizarea că IA de astăzi are unele limitări destul de severe. Am trecut de la titlurile înălțătoare ale AI pentru bine și ne-am trezit din ce în ce mai absorbiți AI pentru rău. Vedeți, multe sisteme de inteligență artificială au fost dezvoltate și puse în aplicare cu tot felul de părtiniri rasiale și de gen nefavorabile și o multitudine de alte astfel de inechități îngrozitoare.

Pentru acoperirea mea extinsă și în curs de desfășurare a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Prejudecățile descoperite în aceste sisteme AI nu sunt de tipul „intenționat” pe care l-am atribui comportamentului uman. Menționez acest lucru pentru a sublinia că IA de astăzi nu este sensibilă. În ciuda acestor titluri zgomotoase care sugerează contrariul, pur și simplu nu există niciun AI care să se apropie de simțire. În plus, nu știm cum să introducem AI în brațul sensibilității, plus nimeni nu poate spune cu siguranță dacă vom atinge vreodată sensibilitatea AI. Poate se va întâmpla într-o zi, sau poate nu.

Deci, ideea mea este că nu putem atribui în mod special intenția tipului de IA pe care îl deținem în prezent. Acestea fiind spuse, putem atribui din abundență intenția celor care creează sisteme AI. Unii dezvoltatori AI nu sunt conștienți de faptul că au conceput un sistem AI care conține părtiniri neplăcute și posibil ilegale. Între timp, alți dezvoltatori de inteligență artificială își dau seama că introduc părtiniri în sistemele lor de inteligență artificială, potențial făcând acest lucru într-o manieră greșită intenționată.

În orice caz, rezultatul este totuși nepotrivit și probabil ilegal.

Sunt în curs de desfășurare eforturi stridente pentru a promulga principiile de etică AI care vor lumina dezvoltatorii AI și vor oferi îndrumări adecvate pentru a evita încorporarea prejudecăților în sistemele lor AI. Acest lucru va ajuta într-un mod dublu. În primul rând, cei care creează IA nu vor mai avea scuza pregătită că pur și simplu nu cunoșteau ce precepte ar trebui urmate. În al doilea rând, cei care se îndepărtează de condițiile AI etice vor fi mai ușor prinși și arătați ca evitând ceea ce au fost avertizați să facă și să nu facă.

Să luăm un moment pentru a lua în considerare pe scurt câteva dintre preceptele cheie ale AI etice pentru a ilustra la ce ar trebui să se gândească constructorii de IA și să întreprindă riguros dintr-o poziție de etică AI.

După cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv cu metodologii transparente și auditabile, surse de date și proceduri de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui să fie respectate în general, în timp ce este o situație mult mai complicată, când codarea AI trebuie să fie adevărata cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. Vă rugăm să fiți conștienți de faptul că este nevoie de un sat pentru a concepe și a folosi IA. Pentru care întregul sat trebuie să fie atent la Etica AI.

Oricum, acum că am ajuns la masa că AI poate conține părtiniri, poate că suntem cu toții de acord cu aceste două fapte aparente:

1. Oamenii pot avea numeroase prejudecăți nefavorabile și pot acționa după ele

2. AI poate avea numeroase prejudecăți nefavorabile și poate acționa asupra acestor părtiniri

Îmi detestă oarecum să adun oamenii față de AI în acest context, deoarece ar putea implica cumva că AI are capacități simțitoare la egalitate cu oamenii. Cu siguranță nu este așa. Voi reveni pentru moment la preocupările tot mai mari cu privire la antropomorfizarea IA puțin mai târziu în această discuție.

Ce este mai rău, oamenii care prezintă prejudecăți nefavorabile sau AI care face acest lucru?

Îndrăznesc să spun că întrebarea pune una dintre acele alegeri dure. Este proverbialul mai mic dintre cele două rele, s-ar putea susține. Ne-am dori ca oamenii să nu întrupeze părtiniri neplăcute. În plus, ne-am dori ca, chiar dacă oamenii au prejudecăți nefavorabile, ei să nu acționeze în baza acestor părtiniri. Același lucru s-ar putea spune pe bună dreptate despre AI. Ne-am dori ca AI să nu încorporeze prejudecăți nefavorabile și că, chiar dacă există astfel de părtiniri codificate intern, AI cel puțin să nu acționeze asupra lor.

Cu toate acestea, dorințele nu conduc neapărat lumea (pentru analiza mea despre aparența în creștere și tulburătoare a așa-ziselor Împlinirea dorințelor AI de societate în general, vezi linkul aici).

Bine, evident că vrem ca oamenii să-și cunoască limitele. Este important să recunoașteți când aveți prejudecăți nefavorabile. Există o importanță egală în încercarea de a preveni ca acele prejudecăți nefavorabile să fie infuzate în acțiunile și deciziile tale. Companiile de astăzi încearcă tot felul de abordări pentru a-și împiedica angajații să cadă în capcane teribile de părtiniri neplăcute. Angajaților li se oferă instruire specializată despre cum să-și desfășoare munca în moduri corecte din punct de vedere etic. Procesele sunt modelate în jurul angajaților pentru a-i alerta atunci când par să manifeste obiceiuri lipsite de etică. Si asa mai departe.

Un alt mijloc de a face față oamenilor și părtinirilor lor nefaste ar fi automatizarea muncii bazate pe oameni. Da, pur și simplu scoateți umanul din buclă. Nu permiteți unui om să îndeplinească o sarcină de luare a deciziilor și probabil că nu mai aveți griji persistente cu privire la comportamentul uman față de orice prejudecăți nefavorabile. Nu este un om implicat și astfel problema potențialelor părtiniri umane pare a fi rezolvată.

Aduc în discuție acest lucru deoarece asistăm la o schimbare treptată și masivă către utilizarea AI într-o manieră de luare a deciziilor prin algoritm (ADM). Dacă puteți înlocui un lucrător uman cu AI, șansele sunt că vor apărea o mulțime de beneficii. După cum am menționat deja, nu te-ai mai îngrijora de părtinirile umane ale acelui lucrător uman (cel care nu mai face acea treabă). Sunt șanse ca IA să fie în general mai puțin costisitoare în comparație cu un orizont de timp pe termen lung. Renunțați la toate celelalte dificultăți asortate care vin parțial cu lucrătorii umani. etc.

O propunere care câștigă teren pare să fie următoarea: Când încercați să decideți unde să plasați cel mai bine AI, priviți mai întâi setările care implică deja părtiniri umane nefavorabile ale lucrătorilor dvs. și pentru care acele părtiniri subcotează sau complică în alt mod excesiv anumite sarcini de luare a deciziilor.

Concluzia este că s-ar părea prudent să câștigi cel mai bun profit în ceea ce privește investiția în AI, țintând direct sarcinile de luare a deciziilor umane foarte expuse, care sunt greu de controlat dintr-o perspectivă a infuziei părtinitoare. Îndepărtați lucrătorii umani în acest rol. Înlocuiește-le cu AI. Presupunerea este că AI nu ar avea astfel de părtiniri nefavorabile. Prin urmare, poți să-ți iei prăjitura și să-l mănânci și tu, și anume, să primești sarcinile de decizie și să faci asta fără spectrul etic și legal al prejudecăților neplăcute.

Atunci când creionați asta, rentabilitatea investiției (rentabilitatea investiției) ar face probabil ca adoptarea AI să fie o alegere neobișnuită.

Iată cum se întâmplă de obicei.

Priviți în întreaga firmă și încercați să identificați sarcinile de luare a deciziilor care influențează clienții. Dintre aceste sarcini, care sunt cel mai probabil să fie influențate în mod necorespunzător dacă lucrătorii întruchipează părtiniri nefavorabile? Dacă ați încercat deja să stăpâniți aceste părtiniri, poate ați lăsat lucrurile să stea așa cum sunt. Pe de altă parte, dacă părtinirile continuă să reapară și efortul de a le înlătura este onoros, luați în considerare să renunțați la un AI pertinent în acest rol. Nu ține lucrătorii în amestec, deoarece ar putea trece peste AI sau împinge AI înapoi în abisul prejudecăților nefavorabile. De asemenea, asigurați-vă că AI poate îndeplini sarcina cu competență și că ați surprins suficient aspectele de luare a deciziilor necesare pentru îndeplinirea sarcinii.

Clătiți și repetați.

Îmi dau seama că pare o noțiune simplă, deși îmi dau seama că există o mulțime de moduri prin care înlocuirea lucrătorilor umani cu inteligența artificială poate merge prost. Multe companii au fost dornice să întreprindă astfel de acțiuni și nu s-au gândit cu atenție cum să facă acest lucru. Drept urmare, au făcut adesea o mizerie mult mai proastă decât aveau pe mâini de la început.

Vreau să clarific și să accentuez faptul că AI nu este un panaceu.

Apropo de asta, există o problemă uriașă cu privire la curățenia de a arunca aparent factorii de decizie părtinitori față de oameni cu AI-ul presupus imparțial. Problema este că s-ar putea să înlocuiți doar un set de prejudecăți nefavorabile cu altul. Conform indicațiilor anterioare, AI poate conține părtiniri nefavorabile și poate acționa asupra acestor părtiniri. Făcând o presupunere neplăcută că schimbarea oamenilor părtinitori cu IA imparțială nu este tot ce se presupune că este.

Pe scurt, iată oferta atunci când priviți problema strict din factorii de părtinire:

  • AI nu are prejudecăți nefavorabile și, prin urmare, ADM bazat pe AI este la îndemână de implementat
  • AI are aceleași părtiniri nefavorabile ca și oamenii care sunt înlocuiți și, prin urmare, ADM bazat pe AI este îngrijorător
  • Inteligența artificială introduce noi părtiniri nefavorabile dincolo de cele ale oamenilor înlocuiți și probabil va agrava lucrurile în consecință.
  • AI la început pare în regulă, apoi se clătina treptat în prejudecăți nefavorabile
  • Altele

Putem dezvălui pe scurt aceste posibilități.

Prima este versiunea idealizată a ceea ce s-ar putea întâmpla. AI nu are părtiniri nefavorabile. Puneți AI-ul la locul lor și își face treaba excelent. Bravo ție! Desigur, s-ar spera că ați gestionat într-un fel abil și deplasarea lucrătorilor umani din cauza includerii AI.

În cel de-al doilea caz, puneți IA și descoperiți că IA prezintă aceleași părtiniri nefavorabile pe care le-au avut lucrătorii umani. Cum poate fi aceasta? O modalitate obișnuită de a cădea în această capcană este utilizarea Machine Learning (ML) și Deep Learning (DL) pe baza datelor colectate despre modul în care oamenii din rol își luau deciziile anterior.

Permiteți-mi un moment să vă explic.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au făcut munca de ani și ani au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Potrivirea modelelor computaționale de învățare automată sau de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

În total, s-ar putea să ajungi înapoi la punctul unu. Aceleași părtiniri nefavorabile ale oamenilor sunt acum reflectate computațional în sistemul AI. Nu ați eradicat părtinirile.

Mai rău, este mai puțin probabil să realizați că AI-ul are părtiniri. În cazul oamenilor, în mod normal s-ar putea să fii atent că oamenii au părtiniri nefavorabile. Aceasta este o așteptare de bază. Utilizarea inteligenței artificiale îi poate liniști pe lideri să creadă că automatizarea a eliminat complet orice tip de părtinire umană. Astfel, ei se pregătesc pentru că s-au împușcat în picior. Ei au scăpat de oameni cu părtiniri nefavorabile aparent cunoscute, fiind înlocuiți de IA despre care se credea că nu are astfel de părtiniri și totuși au pus în uz acum AI plină de aceleași părtiniri deja cunoscute că există.

Acest lucru poate face lucrurile cu adevărat încrucișate. S-ar putea să fi îndepărtat alte balustrade folosite cu lucrătorii umani care au fost stabilite pentru a detecta și a preveni apariția acelor părtiniri umane deja anticipate. AI are acum frâu liber. Nimic nu este în loc să-l prindă înainte de a acționa. Atunci AI-ul ar putea începe să te conducă pe o cale dură a acumulării vaste de acțiuni părtinitoare.

Și, ești în postura incomodă și probabil răspunzătoare pe care o știai cândva despre părtiniri și acum ai permis ca acele părtiniri să facă ravagii. Poate că un lucru este să nu fi întâlnit vreodată astfel de prejudecăți neplăcute și apoi, dintr-o dată, din senin, AI le scoate. Ați putea încerca să scuzați acest lucru cu un fel de distractor „cine ar fi ghicit” (nu foarte convingător, poate). Dar dacă ai creat acum AI care face aceleași acțiuni nefavorabile părtinitoare ca și înainte, ei bine, scuzele tale devin din ce în ce mai subțiri și mai slabe.

O întorsătură în acest sens presupune ca AI să prezinte părtiniri nefavorabile care nu au fost întâlnite anterior atunci când oamenii făceau sarcina. Ați putea spune că acest lucru este probabil mai greu de prevenit, deoarece constă în „noi” părtiniri pe care firma nu le căutase anterior. În cele din urmă, totuși, scuzele s-ar putea să nu vă ofere prea multă ușurare. Dacă sistemul AI s-a aventurat atât pe un teritoriu neetic, cât și pe un teritoriu ilegal, gâsca dvs. ar putea fi gătită.

O altă fațetă de reținut este că AI-ul ar putea începe bine și apoi să se îndrepte spre prejudecăți nefavorabile. Acest lucru este mai ales probabil atunci când utilizarea Machine Learning sau a Deep Learning are loc în mod continuu pentru a menține AI-ul la zi. Indiferent dacă ML/DL funcționează în timp real sau realizează periodic actualizări, atenția ar trebui să fie dacă AI-ul poate ingera date care acum conțin părtiniri și care anterior nu erau prezente.

Pentru liderii care cred că primesc un prânz gratuit fluturând o baghetă magică pentru a înlocui lucrătorii umani părtinitori cu inteligența artificială, ei sunt pe cale de o trezire foarte grosolană. Vezi discuția mea despre importanța împuternicirii liderilor cu preceptele Eticii AI la linkul aici.

În acest moment al acestei discuții, aș paria că sunteți dornic de câteva exemple din lumea reală care ar putea prezenta enigma de a înlocui (sau nu) prejudecățile nefavorabile umane cu prejudecăți nefavorabile bazate pe AI.

Mă bucur că ai întrebat.

Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre părtinirile nefavorabile ale inteligenței artificiale și, dacă da, ce arată acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele pe care AI le conduce în întregime pe cont propriu și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină cu autovehicule la nivelul 5, pe care nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și IA cu părtiniri neplăcute

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și posibilitățile etice AI care implică explorarea AI și a prejudecăților nefavorabile.

Să folosim un exemplu simplu. O mașină autonomă bazată pe inteligență este în curs de desfășurare pe străzile din cartierul tău și pare să conducă în siguranță. La început, ai acordat o atenție deosebită de fiecare dată când ai reușit să arunci o privire asupra mașinii care se conduce singur. Vehiculul autonom s-a remarcat prin raftul său de senzori electronici care includeau camere video, unități radar, dispozitive LIDAR și altele asemenea. După multe săptămâni în care mașina cu conducere autonomă se plimbă prin comunitatea ta, acum abia dacă observi. În ceea ce vă privește, este doar o altă mașină pe drumurile publice deja aglomerate.

Ca să nu crezi că este imposibil sau neplauzibil să te familiarizezi cu a vedea mașini cu conducere autonomă, am scris frecvent despre modul în care locurile care fac obiectul probelor de mașini cu conducere autonomă s-au obișnuit treptat să vadă vehiculele armonioase, vezi analiza mea la acest link aici. Mulți dintre localnici s-au mutat în cele din urmă de la gura căscată uimitoare, la acum emitând un căscat expansiv de plictiseală pentru a asista la acele mașini care se conduc singure.

Probabil că motivul principal în acest moment pentru care ar putea observa vehiculele autonome este din cauza factorului de iritare și exasperare. Sistemele de conducere bazate pe inteligență artificială se asigură că mașinile respectă toate limitele de viteză și regulile de circulație. Pentru șoferii umani agitați în mașinile lor tradiționale conduse de oameni, uneori te enervezi când rămâi în spatele mașinilor cu autonomie bazate pe inteligență artificială care respectă strict legea.

Este ceva cu care ar putea fi nevoie să ne obișnuim cu toții, pe drept sau greșit.

Înapoi la povestea noastră.

Se pare că încep să apară două preocupări nepotrivite cu privire la mașinile care se conduc singure bazate pe inteligență artificială, altfel inofensive și în general binevenite, în special:

A. În cazul în care AI-ul străbate mașinile cu conducere autonomă pentru a ridica cursele, a devenit o preocupare îngrijorătoare în comunitatea în general

b. Modul în care AI îi tratează pe pietonii în așteptare care nu au drept de trecere este, de asemenea, o problemă în creștere

La început, AI-ul cutreiera mașinile cu conducere autonomă prin tot orașul. Oricine dorea să solicite o plimbare cu mașina autonomă avea, în esență, șanse egale de a primi una. Treptat, AI a început să mențină în primul rând mașinile cu conducere autonomă în roaming într-o singură secțiune a orașului. Această secțiune a generat mai mult bani, iar sistemul AI a fost programat pentru a încerca să maximizeze veniturile ca parte a utilizării în comunitate.

Membrii comunității din zonele sărace ale orașului erau mai puțin probabil să poată ajunge cu o mașină care se conduce singur. Acest lucru se datora faptului că mașinile cu conducere autonomă erau mai departe și roaming în partea cu venituri mai mari a localității. Când o solicitare a venit dintr-o parte îndepărtată a orașului, orice solicitare dintr-o locație mai apropiată care se afla probabil în partea „stimată” a orașului avea o prioritate mai mare. În cele din urmă, disponibilitatea de a obține o mașină cu conducere autonomă în orice alt loc decât în ​​partea mai bogată a orașului a fost aproape imposibilă, în mod exasperant pentru cei care locuiau în acele zone acum lipsite de resurse.

Ați putea afirma că AI a ajuns aproape la o formă de discriminare prin proxy (denumită adesea discriminare indirectă). AI nu a fost programat să evite acele cartiere mai sărace. În schimb, a „învățat” să facă acest lucru prin utilizarea ML/DL.

Ideea este că șoferii umani cu ridesharing erau cunoscuți pentru că făceau același lucru, deși nu neapărat exclusiv din cauza unghiului de a face bani. Au existat unii dintre șoferii umani care participau la partajare, care aveau o părtinire neplăcută de a ridica călăreți în anumite părți ale orașului. Acesta a fost un fenomen oarecum cunoscut, iar orașul a pus în aplicare o abordare de monitorizare pentru a-i surprinde pe șoferi umani care fac acest lucru. Șoferii umani ar putea avea probleme pentru efectuarea unor practici de selecție neplăcute.

S-a presupus că AI nu va cădea niciodată în același tip de nisipuri mișcătoare. Nu a fost înființată nicio monitorizare specializată pentru a ține evidența spre unde se îndreptau mașinile cu conducere autonomă bazate pe inteligență artificială. Abia după ce membrii comunității au început să se plângă, liderii orașului și-au dat seama ce se întâmplă. Pentru mai multe despre aceste tipuri de probleme la nivel de oraș pe care le vor prezenta vehiculele autonome și mașinile cu conducere autonomă, vedeți acoperirea mea la acest link aici și care descrie un studiu condus de Harvard pe care l-am coautor pe această temă.

Acest exemplu de aspecte de roaming ale mașinilor care se conduc singure bazate pe inteligență artificială ilustrează indicația anterioară conform căreia pot exista situații care implică oameni cu prejudecăți nefavorabile, pentru care sunt puse controale și că IA care înlocuiește acești șoferi umani este lăsată la ochi. liber. Din nefericire, AI poate deveni apoi treptat în prejudecăți similare și poate face acest lucru fără a exista suficiente balustrade.

Un al doilea exemplu implică AI care determină dacă să se oprească pentru pietonii care așteaptă care nu au drept de trecere să traverseze o stradă.

Fără îndoială, ați condus și ați întâlnit pietoni care așteptau să traverseze strada și totuși nu aveau dreptul de trecere să o facă. Asta însemna că aveai discreție dacă să te oprești și să-i lași să treacă. Puteți continua fără să-i lăsați să treacă și să vă aflați în continuare pe deplin în regulile legale de conducere pentru a face acest lucru.

Studiile asupra modului în care șoferii umani decid să oprească sau să nu se oprească pentru astfel de pietoni au sugerat că uneori șoferii umani fac alegerea pe baza unor părtiniri nefavorabile. Un șofer uman ar putea să privească pietonul și să aleagă să nu oprească, chiar dacă s-ar fi oprit dacă pietonul ar fi avut un aspect diferit, cum ar fi în funcție de rasă sau sex. Am examinat asta la linkul aici.

Imaginați-vă că mașinile cu conducere autonomă bazate pe inteligență artificială sunt programate să se ocupe de întrebarea dacă să se oprească sau nu pentru pietonii care nu au drept de trecere. Iată cum au decis dezvoltatorii AI să programeze această sarcină. Ei au colectat date de la camerele video ale orașului, care sunt amplasate peste tot în oraș. Datele arată șoferii umani care opresc pentru pietonii care nu au drept de trecere și șoferii umani care nu opresc. Totul este colectat într-un set mare de date.

Prin utilizarea Machine Learning și Deep Learning, datele sunt modelate computațional. Sistemul de conducere AI folosește apoi acest model pentru a decide când să se oprească sau nu. În general, ideea este că, indiferent în care constă obiceiul local, acesta este modul în care AI-ul va direcționa mașina cu conducere autonomă.

Spre surprinderea liderilor orașului și a locuitorilor, AI a optat evident să se oprească sau să nu se oprească în funcție de aspectul pietonului, inclusiv de rasă și gen. Senzorii mașinii cu conducere autonomă ar scana pietonul în așteptare, ar introduce aceste date în modelul ML/DL, iar modelul ar transmite către AI dacă să se oprească sau să continue. Din păcate, orașul avea deja o mulțime de părtiniri ale șoferului uman în acest sens, iar AI-ul mima acum același lucru.

Vestea bună este că aceasta ridică o problemă despre care aproape nimeni nu știa că există. Vestea proastă a fost că, din moment ce AI a fost prins făcând asta, a primit cea mai mare parte a vina. Acest exemplu ilustrează faptul că un sistem AI ar putea doar să dubleze prejudecățile nefavorabile deja preexistente ale oamenilor.

Concluzie

Există o multitudine de modalități de a încerca să eviți conceperea AI care fie să aibă părtiniri nefavorabile, fie care, în timp, culege părtiniri. O abordare implică asigurarea faptului că dezvoltatorii AI sunt conștienți de acest lucru și, prin urmare, îi țin pe minte pentru a programa AI pentru a evita situația. O altă cale constă în a avea AI să se auto-monistreze pentru comportamente neetice (vezi discuția mea la linkul aici) și/sau deține o altă componentă AI care monitorizează alte sisteme AI pentru comportamente potențial lipsite de etică (am acoperit acest lucru la linkul aici).

Pentru a recapitula, trebuie să ne dăm seama că oamenii pot avea părtiniri nefavorabile și că, într-un fel, trebuie să-și cunoască limitele. De asemenea, AI poate avea părtiniri nefavorabile și, cumva, trebuie să le cunoaștem limitările.

Pentru aceia dintre voi care îmbrățișează cu aviditate Etica AI, aș dori să închei chiar acum cu o altă linie faimoasă pe care toată lumea trebuie să o cunoască deja. Și anume, vă rugăm să continuați să utilizați și să împărtășiți importanța IA etică. Și făcând asta, aș spune cu obrăznicie acest lucru: „Du-te mai departe, fă-mi ziua.”

Sursa: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/