Etica IA și legea AI se îndreaptă către standarde care identifică și gestionează în mod explicit prejudecățile AI

Ați jucat vreodată la ridicarea de cincizeci și două de cărți?

Nu este un joc pe care l-ai întreprinde în mod normal de bunăvoie. Iata de ce. Cineva îți oferă că este un sport presupus distractiv și, dacă iei momeala dulce, atunci aruncă un pachet întreg de cărți de joc în aer și sumar pe podea. Persoana îți oferă apoi un zâmbet obraznic și îți spune să mergi înainte și să ridici cărțile. Asta e tot jocul.

Persoană pusă pe glume!

Am o întrebare oarecum atentă să vă pun despre asta.

Să presupunem că una dintre cărți a alunecat sub o canapea din apropiere. Când ai terminat de ridicat toate cărțile, ai ști că lipsește una pentru că ar fi doar cincizeci și una în mână.

Întrebarea este, ați putea determina ce card lipsește?

Sunt sigur că ai spune imediat că îți poți da seama cu ușurință care carte nu era în mâinile tale. Tot ce trebuie să faceți este să puneți pachetul în ordine. Știți că un pachet standard este format din patru culori și că în fiecare culoare cărțile sunt numerotate de la unu la zece și apoi în Jack, Queen și King.

Știți asta deoarece un pachet standard de cărți de joc se bazează pe un standard.

Uau, această afirmație ar putea părea una dintre acele afirmații absolut evidente. Ei bine, da, desigur, un pachet de joc standard se bazează pe un standard. Toti stim asta. Ideea mea este că, având un standard, ne putem baza pe standard atunci când este nevoie. Pe lângă faptul că puteți deduce ce carte lipsește dintr-un pachet, puteți juca cu ușurință miliarde de jocuri de cărți binecunoscute cu alte persoane. Odată ce cuiva i se spune regulile unui joc, este direct capabil să joace, deoarece știe deja pe deplin în ce constă pachetul. Nu trebuie să le explicați că pachetul are patru costume și cărți numerotate diferit. Ei știu deja că așa este.

Unde ma duc cu asta?

Încerc să vă conduc pe o cale care este un mijloc vital de a face progrese în domeniul AI și în special în domeniul eticii AI și al AI etică. Vedeți, trebuie să încercăm să venim cu standarde larg răspândite și convenite în totalitate despre etica AI. Dacă putem face acest lucru, va spori ușurința adoptării IA etică și va urmări, în mod demonstrabil, să îmbunătățească sistemele AI care continuă să fie aruncate pe piață pe piață (ca un pachet nenumerotat și neordonat de wild cards). Pentru acoperirea mea continuă și extinsă a eticii AI, IA etică și legea AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Aduc aceasta în discuție pentru a oferi o bază pentru discuția mea de aici, care se va concentra pe un anumit segment sau o porțiune din domeniul mai larg al Eticii AI, și anume, așa cum am menționat mai devreme, elementul specific al prejudecăților AI. De asemenea, motivul pentru care vă împărtășesc acest subiect este că un document publicat de Institutul Național de Standarde și Tehnologie (NIST) încearcă să ne facă să ne îndreptăm spre un standard care caracterizează prejudecățile AI. Documentul este intitulat Către un standard pentru identificarea și gestionarea părtinirii în inteligența artificială de autorii Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt și Patrick Hall și a fost publicată de Departamentul de Comerț al SUA, NIST Special Publication 1270, în martie 2022.

Vom despacheta acest efort la îndemână și încurajator pentru a stabili ce înțelegem prin părtiniri AI. Vechea zicală este că nu poți gestiona ceea ce nu poți măsura. Având un standard care prezintă varietatea de prejudecăți AI, puteți începe să măsurați și să gestionați flagelul prejudecăților AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv cu metodologii transparente și auditabile, surse de date și proceduri de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a afirmat mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

La baza multor dintre aceste precepte cheie de etică AI se află natura insidioasă a prejudecăților AI.

La fel ca un pachet de cărți, cu siguranță ar fi ingenios dacă am putea grupa cumva prejudecățile AI într-un set de „costume” sau categorii. Într-adevăr, documentul NIST oferă o grupare sugerată.

Sunt propuse trei mari categorii:

1) Prejudecăți sistemice

2) Prejudecăți statistice și de calcul

3) Prejudecățile umane

Dacă toate prejudecățile AI se încadrează perfect într-una dintre aceste trei categorii este cu siguranță ceva de luat în considerare. Puteți susține cu siguranță că unele prejudecăți ale AI se încadrează în una, două sau toate trei categorii în același timp. În plus, ați putea susține că mai multe categorii merită menționate, cum ar fi unele a patra, a cincea, a șasea sau mai multe serii de grupări.

Sper că la asta vă gândiți, deoarece trebuie să îi implicăm pe toți pentru a ajuta la formarea acestor standarde. Dacă sunteți supărați de felul în care aceste standarde se conturează pentru prima dată, vă îndemn să transformați acea energie pentru a ne ajuta pe ceilalți să facem acele standarde în devenire cât mai robuste și complete pe cât pot fi sculptate.

Deocamdată, putem arunca o privire mai atentă la cele trei categorii propuse și putem vedea cu ce fel de mână am avut de-a face până acum (da, voi continua să folosesc o analogie cu un pachet de cărți de joc, făcând acest lucru de-a lungul întregii piese scrise, vă puteți paria cel mai mic dolar pe acel as nu atât de ascuns al unei teme).

Ce se înțelege prin referire la prejudecăți sistemice?

Iată ce spune documentul NIST: „Prejudecățile sistemice rezultă din procedurile și practicile anumitor instituții care funcționează în moduri care au ca rezultat avantajele sau favorizarea anumitor grupuri sociale, iar altele dezavantajate sau devalorizate. Acest lucru nu trebuie să fie rezultatul vreunei prejudecăți sau discriminări conștiente, ci mai degrabă a majorității care urmează regulile sau normele existente. Rasismul și sexismul instituțional sunt cele mai comune exemple” (rețineți că acesta este doar un scurt fragment și cititorii sunt încurajați să vadă explicația mai completă).

AI intră în combinația de părtiniri sistemice, oferind un mijloc de transmitere și aplicare a acestor părtiniri în aplicațiile bazate pe inteligență artificială. Ori de câte ori utilizați un software cu IA, din câte știți, acesta poate conține o serie de părtiniri care sunt deja introduse în sistem prin intermediul companiilor și practicilor din industrie care au condus la realizarea AI. Conform studiului NIST: „Aceste părtiniri sunt prezente în seturile de date utilizate în AI și în normele, practicile și procesele instituționale de-a lungul ciclului de viață AI și în cultura și societatea mai largă”.

În continuare, luați în considerare setul de părtiniri care sunt etichetate ca fiind părtiniri statistice și de calcul.

Documentul NIST afirmă acest lucru: „Prejudecățile statistice și de calcul provin din erori care rezultă atunci când eșantionul nu este reprezentativ pentru populație. Aceste prejudecăți apar din eroare sistematică, spre deosebire de eroarea aleatorie, și pot apărea în absența prejudecăților, a părțiilor sau a intenției discriminatorii. În sistemele AI, aceste părtiniri sunt prezente în seturile de date și procesele algoritmice utilizate în dezvoltarea aplicațiilor AI și apar adesea atunci când algoritmii sunt antrenați pe un tip de date și nu pot extrapola dincolo de aceste date.”

Acest tip de părtinire statistică și computațională este adesea gătit într-un sistem AI care utilizează Machine Learning (ML) și Deep Learning (DL). Aducerea în discuție a problemei importante a ML/DL contemporan necesită o tangentă laterală legată de ce este AI și ce este ML/DL.

Să ne asigurăm că suntem pe aceeași pagină cu privire la natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning și Deep Learning, care folosesc potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Acest lucru ne aduce direct la a treia categorie a setului de trei grupări NIST, în special rolul părtinirilor umane în apariția părtinirilor AI. Iată ce a indicat documentul NIST: „Prejudecățile umane reflectă erori sistematice în gândirea umană, bazate pe un număr limitat de principii euristice și de predicție a valorilor la operațiuni de judecată mai simple. Aceste părtiniri sunt adesea implicite și tind să se refere la modul în care un individ sau un grup percepe informațiile (cum ar fi ieșirea automată a AI) pentru a lua o decizie sau pentru a completa informațiile lipsă sau necunoscute. Aceste părtiniri sunt omniprezente în procesele de luare a deciziilor instituționale, de grup și individuale de-a lungul ciclului de viață AI și în utilizarea aplicațiilor AI odată implementate.”

Acum ați primit o introducere rapidă în cele trei categorii.

Aș dori să vă împărtășesc câteva lucruri suplimentare de gândire, așa cum sunt exprimate în documentul NIST. O diagramă din narațiunea lor oferă un rezumat util al întrebărilor și considerațiilor cheie care stau la baza fiecăruia dintre cele trei seturi de părtiniri ale AI. Le enumerez aici pentru confortul dumneavoastră de referință și edificare.

#1: Prejudecăți sistemice

  • Cine este numărat și cine nu este numărat?

— Probleme cu variabilele latente

— Subreprezentarea grupurilor marginalizate

— Automatizarea inegalităților

— Subreprezentare în determinarea funcției de utilitate

— Procese care favorizează majoritatea/minoritatea

— Prejudecăți culturale în funcția obiectiv (cel mai bun pentru indivizi vs cel mai bun pentru grup)

  • Cum știm ce este corect?

— Consolidarea inegalităților (grupurile sunt afectate mai mult de utilizarea mai mare a IA)

— Poliția predictivă a avut un impact mai negativ

— Adoptarea pe scară largă a mașinilor de partajare/auto-conducere/etc. poate schimba politicile care influențează populația în funcție de utilizare

#2: Prejudecăți statistice și de calcul

  • Cine este numărat și cine nu este numărat?

— Prejudecăți de eșantionare și selecție

— Utilizarea variabilelor proxy, deoarece sunt mai ușor de măsurat

— Prejudecăți de automatizare

— Scala Likert (categoric de la ordinal la cardinal)

— Neliniar vs liniar

— Eroare ecologică

— Minimizarea normei L1 vs. L2

— Dificultate generală în cuantificarea fenomenelor contextuale

  • Cum știm ce este corect?

— Lipsa validării încrucișate adecvate

— Prejudecățile de supraviețuire

— Dificultate cu corectitudinea

#3: Prejudecățile umane

  • Cine este numărat și cine nu este numărat?

— Prejudecăți observaționale (efectul străzilor)

— Prejudecata de disponibilitate (ancorare)

— Eroare McNamara

— Gândirea în grup duce la alegeri înguste

— Efectul Rashomon duce la advocacy subiectivă

— Dificultatea în cuantificarea obiectivelor poate duce la eroarea McNamara

  • Cum știm ce este corect?

— Prejudecata de confirmare

— Prejudecăți de automatizare

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta cele trei categorii de prejudecăți ale AI. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre cele trei categorii propuse de prejudecăți ale inteligenței artificiale și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini autonome și prejudecăți ale inteligenței artificiale

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și posibilitățile etice AI care implică cele trei categorii de prejudecăți ale AI.

Imaginează-ți că o mașină autonomă bazată pe inteligență artificială este în curs de desfășurare pe străzile din cartierul tău și pare să conducă în siguranță. La început, ai acordat o atenție deosebită de fiecare dată când ai reușit să arunci o privire asupra mașinii care se conduce singur. Vehiculul autonom s-a remarcat prin raftul său de senzori electronici care includeau camere video, unități radar, dispozitive LIDAR și altele asemenea. După multe săptămâni în care mașina cu conducere autonomă se plimbă prin comunitatea ta, acum abia dacă observi. În ceea ce vă privește, este doar o altă mașină pe drumurile publice deja aglomerate.

Ca să nu crezi că este imposibil sau neplauzibil să te familiarizezi cu a vedea mașini cu conducere autonomă, am scris frecvent despre modul în care locurile care fac obiectul probelor de mașini cu conducere autonomă s-au obișnuit treptat să vadă vehiculele armonioase, vezi analiza mea la acest link aici. Mulți dintre localnici s-au mutat în cele din urmă de la gura căscată uimitoare, la acum emitând un căscat expansiv de plictiseală pentru a asista la acele mașini care se conduc singure.

Probabil că motivul principal în acest moment pentru care ar putea observa vehiculele autonome este din cauza factorului de iritare și exasperare. Sistemele de conducere bazate pe inteligență artificială se asigură că mașinile respectă toate limitele de viteză și regulile de circulație. Pentru șoferii umani agitați în mașinile lor tradiționale conduse de oameni, uneori te enervezi când rămâi în spatele mașinilor cu autonomie bazate pe inteligență artificială care respectă strict legea.

Este ceva cu care ar putea fi nevoie să ne obișnuim cu toții, pe drept sau greșit.

Înapoi la povestea noastră.

Vom analiza în continuare modul în care prejudecățile sistemice ar putea apărea în acest context al mașinilor cu conducere autonomă.

Unii experți sunt foarte îngrijorați de faptul că mașinile care se conduc singure vor fi provincia doar a celor bogați și a elitei. S-ar putea ca costul de utilizare a mașinilor cu conducere autonomă să fie prohibitiv de scump. Dacă nu ai bani mari, s-ar putea să nu vezi niciodată interiorul unei mașini care se conduce singur. Se presupune că cei care vor folosi mașini autonome vor trebui să fie bogați.

Ca atare, unii îndeamnă în mod deconcertant că o formă de prejudecată sistemică va pătrunde în apariția mașinilor cu conducere autonomă bazate pe inteligență artificială. Sistemul industrial de vehicule autonome în ansamblu va ține mașinile cu conducere autonomă departe de mâinile celor care sunt săraci sau mai puțin înstăriți. Acest lucru s-ar putea să nu fie neapărat din intenție fățișă și doar se dovedește că singura modalitate considerată de a recupera costurile împovărătoare ale inventării mașinilor cu conducere autonomă va fi să percepe prețuri revoltător de mari.

Dacă răspunzi că astăzi există aceste teste de mașini cu conducere autonomă care permit persoanei obișnuite să folosească, așadar pare aparent că nu trebuie să fii bogat în sine, contraargumentul este că acesta este un fel de joc de shell ca ar fi fost. Se presupune că producătorii de automobile și firmele de tehnologie cu auto-conducere sunt dispuși să facă să pară că costul nu va fi o barieră substanțială. Ei fac acest lucru în scopuri de relații publice chiar acum și vor crește prețurile odată ce își vor da seama de ridurile. Un conspiracist ar putea chiar susține că „cobaii” ca oameni obișnuiți sunt folosiți în mod pernicios pentru a le permite celor bogați să se îmbogățească în cele din urmă.

Deci, având în vedere această chestiune destul de controversată și punând propriii mei doi cenți pe acest subiect sordid, nu cred că mașinile cu conducere autonomă vor fi depășite pentru utilizarea de zi cu zi. Nu voi intra în detaliile de aici cu privire la baza mea pentru a face o astfel de afirmație și vă invit să vedeți discuțiile mele atent la linkul aici și, de asemenea, la linkul aici.

Mergând mai departe, putem lua în considerare problema distorsiunilor statistice și de calcul legate de IA.

Gândiți-vă la întrebarea aparent fără consecințe despre unde vor circula mașinile cu conducere autonomă pentru a prelua pasagerii. Acesta pare a fi un subiect extrem de inofensiv. Vom folosi povestea orașului sau orașului care are mașini autonome pentru a evidenția spectrul, poate surprinzător de potențial, al prejudecăților statistice și computaționale legate de IA.

La început, presupuneți că AI-ul rătăcea mașinile cu conducere autonomă prin tot orașul. Oricine dorea să solicite o plimbare cu mașina cu conducere autonomă avea, în esență, șanse egale să-l aclame. Treptat, AI a început să mențină în primul rând mașinile cu conducere autonomă în roaming într-o singură secțiune a orașului. Această secțiune a generat mai mult bani, iar sistemul AI a fost programat pentru a încerca să maximizeze veniturile ca parte a utilizării în comunitate.

Membrii comunității din zonele sărace ale orașului erau mai puțin probabil să poată ajunge cu o mașină care se conduce singur. Acest lucru se datora faptului că mașinile cu conducere autonomă erau mai departe și roaming în partea cu venituri mai mari a localității. Când o solicitare a venit dintr-o parte îndepărtată a orașului, orice solicitare dintr-o locație mai apropiată care se afla probabil în partea „stimată” a orașului avea o prioritate mai mare. În cele din urmă, disponibilitatea de a obține o mașină cu conducere autonomă în orice alt loc decât în ​​partea mai bogată a orașului a fost aproape imposibilă, în mod exasperant pentru cei care locuiau în acele zone acum lipsite de resurse.

Ați putea afirma că AI a aterizat aproape pe o formă de părtinire statistică și de calcul, asemănătoare cu o formă de discriminare prin proxy (denumită și discriminare indirectă). AI nu a fost programat să evite acele cartiere mai sărace. În schimb, a „învățat” să facă acest lucru prin utilizarea ML/DL.

Se presupunea că AI nu va cădea niciodată în genul ăsta de nisipuri mișcătoare rușinoase. Nu a fost instituită nicio monitorizare specializată pentru a urmări unde se îndreptau mașinile cu conducere autonomă bazate pe inteligență artificială. Abia după ce membrii comunității au început să se plângă, liderii orașului și-au dat seama ce se întâmplă. Pentru mai multe despre aceste tipuri de probleme la nivel de oraș pe care le vor prezenta vehiculele autonome și mașinile cu conducere autonomă, vedeți acoperirea mea la acest link aici și care descrie un studiu condus de Harvard pe care l-am coautor pe această temă.

Pentru a treia categorie de prejudecăți umane legate de prejudecățile AI, ne întoarcem la un exemplu care implică AI care determină dacă să se oprească pentru a aștepta pietonii care nu au drept de trecere să traverseze o stradă.

Fără îndoială, ați condus și ați întâlnit pietoni care așteptau să traverseze strada și totuși nu aveau dreptul de trecere să o facă. Asta însemna că aveai discreție dacă să te oprești și să-i lași să treacă. Puteți continua fără să-i lăsați să treacă și să vă aflați în continuare pe deplin în regulile legale de conducere pentru a face acest lucru.

Studiile asupra modului în care șoferii umani decid să oprească sau să nu se oprească pentru astfel de pietoni au sugerat că uneori șoferii umani fac alegerea pe baza unor părtiniri nefavorabile. Un șofer uman ar putea să privească pietonul și să aleagă să nu oprească, chiar dacă s-ar fi oprit dacă pietonul ar fi avut un aspect diferit, cum ar fi în funcție de rasă sau sex. Am examinat asta la linkul aici.

Imaginați-vă că mașinile cu conducere autonomă bazate pe inteligență artificială sunt programate să se ocupe de întrebarea dacă să se oprească sau nu pentru pietonii care nu au drept de trecere. Iată cum au decis dezvoltatorii AI să programeze această sarcină. Ei au colectat date de la camerele video ale orașului, care sunt amplasate peste tot în oraș. Datele arată șoferii umani care opresc pentru pietonii care nu au drept de trecere și șoferii umani care nu opresc. Totul este colectat într-un set mare de date.

Prin utilizarea Machine Learning și Deep Learning, datele sunt modelate computațional. Sistemul de conducere AI folosește apoi acest model pentru a decide când să se oprească sau nu. În general, ideea este că, indiferent în care constă obiceiul local, acesta este modul în care AI-ul va direcționa mașina cu conducere autonomă.

Spre surprinderea liderilor orașului și a locuitorilor, AI a optat evident să se oprească sau să nu se oprească în funcție de vârsta pietonului. Cum s-ar putea întâmpla asta?

La o analiză mai atentă a videoclipului despre discreția șoferului uman, se dovedește că multe dintre cazurile de neoprire au implicat pietoni care aveau un baston de mers al unui cetățean în vârstă. Șoferii umani nu au fost aparent dispuși să oprească și să lase o persoană în vârstă să traverseze strada, probabil din cauza timpului presupus pe care ar putea-o lua cineva pentru a face călătoria. Dacă pietonul părea că ar putea să traverseze rapid strada și să minimizeze timpul de așteptare al șoferului, șoferii erau mai predispuși să lase persoana să traverseze.

Acest lucru a fost îngropat adânc în sistemul de conducere AI. Senzorii mașinii care se conduce singur ar scana pietonul în așteptare, ar introduce aceste date în modelul ML/DL, iar modelul ar transmite către AI dacă să se oprească sau să continue. Orice indicație vizuală că pietonul ar putea întârzia trecerea, cum ar fi utilizarea unui baston de mers, era folosită din punct de vedere matematic pentru a determina dacă sistemul de conducere AI ar trebui să lase pietonul care așteaptă să treacă sau nu.

Ai putea susține că aceasta a fost o dependență de o părtinire umană preexistentă.

Concluzie

Câteva gânduri finale pentru moment.

Există o vorbă populară conform căreia nu poți schimba cărțile care ți se oferă și, în schimb, trebuie să înveți cum să joci în mod adecvat cu orice mână ți-a fost dată.

În cazul prejudecăților AI, dacă nu ajungem cu fervoare la stabilirea eticii AI în general și, în special, nu consolidăm caracterizarea prejudecăților AI, tipurile de mâini cu care vom avea de-a face vor fi pline de lipsuri de etică. și posibil strat ilegal. Trebuie să oprim acele cărți să fie împărțite, pentru început. Scopul curajos de a crea și promulga standarde etice de inteligență artificială este un instrument crucial pentru combaterea tsunami-ului în creștere din viitorul AI pentru rău.

Poți în mod hotărât să iei la bancă că prejudecățile IA rampante și AI lipsite de etică vor fi ca un castel de cărți subțire, explodând asupra ei înșiși și probabil dezastruoasă pentru noi toți.

Hai să jucăm pentru a câștiga, făcând acest lucru cu AI etic adecvat.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/