Etica AI este sceptică cu privire la stabilirea așa-ziselor legi Red Flag AI pentru apelarea unor algoritmi părtinitori în sistemele AI autonome

Să vorbim despre Legile Steagul Roșu.

Știți, fără îndoială, că noțiunea de Legi Steagul Roșu a fost larg acoperită în știri în ultima vreme. Titlurile care acoperă subiectul sunt abundente. Pasiunile și dezbaterile pasionale pe astfel de chestiuni sunt în fruntea minții ca o preocupare a societății și implică legile actuale și care se afișează rapid pentru arme roșii.

Aș îndrăzni totuși să spun că s-ar putea să nu fii familiarizat cu alte legi Steagul Roșu promulgate la sfârșitul anilor 1800, referitoare la vehiculele motorizate și la precursorii automobilelor moderne de zi cu zi. Da, așa este, Legile Steagul Roșu se întorc în istorie, deși acoperă alte subiecte în comparație cu focusul contemporan de astăzi. Acestea sunt denumite în mod obișnuit legi de circulație cu steag roșu.

Aceste legi vechi de un secol și cu totul disparute impuneau ca orice vagon sau motor propulsat cu abur să aibă la acel moment un adult să preceadă vehiculul și să poarte un steag roșu în scopuri de avertizare. Ideea a fost că animalele s-ar putea alarma de acele instrumente zgomotoase și strigăte care se învârteau încet și neuniform pe pământ sau pe drumurile asfaltate marginal, astfel încât cineva să meargă în fața mașinii în timp ce flutură energic un steag roșu ar putea, sperăm, să evite apariția calamităților. În cazul în care vă întrebați, căile ferate și trenurile au fost considerate excluse din aceleași legi, deoarece erau vehicule legate integral de șine și aveau alte legi care le acopereau acțiunile.

Imaginați-vă că trebuie să fluturați steaguri roșii astăzi ca o cerință pentru fiecare mașină de pe drumurile noastre publice.

De exemplu, un șofer obișnuit care vine pe strada din cartierul tău ar trebui să se asigure că un adult care flutură un steag roșu este prezent și defilează în fața mașinii în mișcare. Acest lucru ar trebui să aibă loc pentru fiecare vehicul care trece pe strada dvs. Poate că oamenii ar deveni angajați cu steag roșu care se angajează pe șoferi de mașini care, altfel, nu aveau un prieten sau o rudă care ar putea să meargă în fața lor și să facă acțiunea stipulată.

În zilele noastre avem tendința de a asocia steagul roșu legat de autostrăzi cu șantierele de construcție a drumurilor. Pe măsură ce vă apropiați de un drum săpat, lucrătorii vor ține în sus un steag roșu pentru a vă atrage atenția. Acest lucru vă spune să încetiniți și să fiți în alertă. S-ar putea să existe un buldozer care îți va trece în cale. O gaură uriașă ar putea fi în față și va trebui să o traversezi cu precauție.

Dar să revenim la utilizarea steagurilor roșii în anii 1800.

Credeți sau nu, steagul roșu trebuia să fie cu cel puțin o optime de milă înaintea viitoarei mașini motorizate. Pare o distanță destul de lungă. Se presupune totuși că acest lucru avea un sens abundent în acele zile. Zgomotele uluitoare ale motorului și, probabil, simpla vedere a vehiculului ar putea fi suficiente pentru a deranja animalele. Unele dintre Legile Steagul Roșu din acea epocă impuneau și ca o lumină roșie strălucitoare să fie ținută în sus în timpul nopții, astfel încât un avertisment de precauție roșu aparent vizual să poată fi văzut de la o distanță întunecată.

În general, cred că este corect să afirmăm că noi, ca societate, avem tendința de a asocia un steag roșu ca un fel de semnal sau semnalizare că ceva este potențial în neregulă sau cel puțin are nevoie de atenția noastră devotată.

Pregătește-te pentru un pic de întorsătură în acest fenomen steag roșu.

Există o susținere că ar trebui să cerem prevederi de tip steag roșu atunci când vine vorba de inteligența artificială (AI).

Este un concept puțin surprinzător și surprinzător, care îi face să se zgârie multe capete. S-ar putea să fii nedumerit cum sau de ce ar trebui să existe așa-zise Legile steag roșu AI. Vă rugăm să rețineți că etichetez acest lucru drept Legi Red Flag AI pentru a diferenția chestiunea de Legile Red Flag (cum ar fi cele de la sfârșitul anilor 1800) și, de asemenea, pentru a le deosebire de celelalte legi mai răspândite despre armele Red Flag.

Avem de fapt nevoie de legile Red Flag AI care sunt orientate în mod distinct și exclusiv către problemele AI?

Cei care sunt în favoarea abordării propuse ar insista că avem absolut nevoie de prevederi legale care să ajute la restrângerea IA care conține părtiniri nejustificate și acționează în moduri discriminatorii. În acest moment, construirea și desfășurarea inteligenței artificiale sunt asemănătoare cu o circumstanță de orice lucru din Vestul Sălbatic. Eforturile de a controla AI proastă depind în prezent de formularea și adoptarea liniilor directoare de etică AI. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Legile care includ AI proastă sunt încet-încet concepute și adoptate, vezi acoperirea mea la linkul aici. Unii își fac griji că parlamentarii nu merg suficient de repede. Se pare că porțile de inundație care permit promovarea AI părtinitoare în lume sunt în mare măsură deschise chiar acum. Strângerea mâinilor spune că, până când noi legi vor ajunge în cărți, genul malefic va fi deja scos din sticlă.

Nu atât de repede, contraargumentele merg. Îngrijorările sunt că, dacă legile sunt puse prea repede în aplicare, vom ucide gâsca de aur, așa cum ar fi, prin care eforturile de AI se vor epuiza și nu vom obține beneficiile de stimulare a societății ale noilor sisteme AI. Dezvoltatorii AI și firmele care doresc să folosească AI s-ar putea speria dacă o serie bizantină de noi legi care guvernează AI sunt introduse brusc la nivel federal, statal și local, ca să nu mai vorbim de legile internaționale legate de AI care avansează și ele.

În această afacere dezordonată vine apelul pentru Legile Red Flag AI.

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza Legii steagului roșu AI, să stabilim câteva elemente fundamentale suplimentare pe subiecte profund esențiale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a spus mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să revenim la concentrarea noastră pe Legile Red Flag AI.

Conceptul de bază este că oamenii ar putea ridica un steag roșu ori de câte ori ar crede că un sistem AI funcționează într-un mod nejustificat de părtinitor sau discriminatoriu. Nu ați ridica un steag fizic în sine, ci pur și simplu ați folosi niște mijloace electronice pentru a vă face cunoscute preocupările. Partea steag roșu a schemei sau abordării este mai mult o metaforă decât o întruchipare fizică.

Prefă-te că ai aplicat pentru un împrumut pentru casă. Alegeți să utilizați un serviciu bancar online pentru a solicita un împrumut. După ce ați introdus câteva date personale, așteptați momentan sistemul AI care este folosit pentru a decide dacă sunteți împrumutat sau nu. AI vă spune că ați fost refuzat pentru împrumut. La solicitarea unei explicații cu privire la motivul pentru care ați fost respins, narațiunea textuală pare să vă sugereze că AI folosea factori părtinitori nejustificați ca parte a algoritmului de luare a deciziilor.

E timpul să ridici un steag roșu despre AI.

Unde va flutura mai exact acest steag roșu?

Asta e o întrebare de un milion de dolari.

Un punct de vedere este că ar trebui să creăm o bază de date la nivel național, care să permită oamenilor să-și marcheze semnalele roșii relevante pentru AI. Unii spun că acest lucru ar trebui reglementat de guvernul federal. Agențiile federale ar fi responsabile de examinarea semnalelor roșii și de a veni în ajutorul publicului larg în ceea ce privește veridicitatea și de a trata probabil „AI proastă” care a alimentat semnalele de semnalare a steagului roșu.

O lege națională cu steag roșu AI ar fi, se pare, stabilită de Congres. Legea ar preciza ce este un steag roșu relevant pentru IA. Legea ar descrie modul în care se ridică aceste semnale roșii de AI. Si asa mai departe. De asemenea, s-ar putea întâmpla ca statele individuale să opteze și pentru a-și elabora propriile legi Red Flag AI. Poate că fac acest lucru în locul unei inițiative naționale sau o fac pentru a amplifica detaliile care sunt deosebit de atrăgătoare pentru statul lor specific.

Criticii unui program federal sau a oricărui program Red Flag AI susținut de guvern ar argumenta că acesta este ceva ce poate face industria privată și nu avem nevoie de Big Brother să iasă în prim-plan. Industria ar putea stabili un depozit online în care oamenii pot înregistra semnale roșii despre sistemele AI. O acțiune de auto-poliție a industriei ar aborda suficient aceste probleme.

O nelămurire în ceea ce privește pretinsa abordare a industriei este că pare să miroase a amiguism. Ar fi oare firmele dispuse să respecte o bază de date de inteligență artificială condusă în mod privat? Multe firme ar putea ignora semnalele roșii marcate despre AI lor. Nu ar exista dinți ascuțiți pentru a face companiile să facă față semnalelor roșii introduse.

Hei, susținătorii abordării din sectorul privat sună liniștit, acesta ar fi asemănător cu serviciul național de tip Yelp. Consumatorii ar putea să se uite la semnalele roșii și să decidă singuri dacă doresc să facă afaceri cu companii care au acumulat o mulțime de semnale roșii orientate spre AI. O bancă care primea tone de semnale roșii cu privire la AI-ul lor ar trebui să fie atentă și să-și modernizeze sistemele AI, așa că logica merge, altfel consumatorii ar evita firma ca ciuma.

Indiferent dacă toată această abordare este întreprinsă de guvern sau de industrie, este doar vârful aisbergului cu privire la întrebările spinoase cu care se confruntă postulul propus de Legile AI Steagul Roșu.

Pune-te în pielea unei firme care a dezvoltat sau folosește AI. S-ar putea ca consumatorii să ridice semnale roșii, chiar dacă nu există o bază viabilă pentru a face acest lucru. Dacă oamenii ar putea posta un steag roșu despre IA, ar putea fi tentați să facă acest lucru dintr-un capriciu sau poate pentru răzbunare împotriva unei firme care altfel nu a făcut nimic rău față de consumator.

Pe scurt, ar putea exista o mulțime de semnale roșii fals pozitive despre AI.

O altă considerație este dimensiunea sau mărimea masivă a steagurilor roșii rezultate. Ar putea fi cu ușurință milioane și milioane de steaguri roșii ridicate. Cine va urmări toate aceste semnale roșii? Care ar fi costul pentru a face acest lucru? Cine va plăti pentru eforturile de urmărire a semnalului roșu? etc.

Dacă ar fi să spuneți că oricine înregistrează sau raportează un steag roșu despre AI trebuie să plătească o taxă, ați intrat într-un tărâm tulbure și insidios. Îngrijorarea ar fi că doar cei bogați și-ar putea permite să ridice semnale roșii. Acest lucru implică, la rândul său, că cei săraci nu ar putea participa în mod egal la activitățile steag roșu și, în esență, nu ar avea un loc pentru a avertiza cu privire la IA adversă.

Încă o întorsătură suplimentară deocamdată, și anume că acest tip de legi sau linii directoare despre AI pare să fie ulterior, mai degrabă decât să servească drept avertisment în prealabil.

Revenind la Legile de trafic cu steag roșu, accentul folosirii unui steag roșu a fost pentru a preveni o calamitate pentru început. Drapelul roșu trebuia să fie cu mult înaintea mașinii viitoare. Fiind în fața vehiculului, animalele ar fi alertate, iar cei care păzeau animalele ar ști că ar trebui să ia măsuri de precauție din cauza sursei perturbatoare care va veni curând.

Dacă oamenii sunt capabili să ridice doar un steag roșu despre AI care aparent deja le-a prejudiciat sau subminat drepturile, proverbialul cal a ieșit deja din hambar. Tot ceea ce ar părea să realizeze este că, sperăm, că alți oameni care vor veni acum ar ști că se feresc de acel sistem AI. Între timp, persoana pretinsă nedreptățită a suferit deja.

Unii sugerează că poate am putea permite oamenilor să ridice semnale roșii despre inteligența artificială pe care o au suspect ar putea fi părtinitoare, chiar dacă nu au folosit AI și nu au fost direct afectați de AI. Astfel, steagul roșu este fluturat înainte de a se produce paguba.

Da, spune replica, vei transforma cu adevărat steagurile roșii care fac față AI într-o afacere complet de negestionată și haotică. Dacă cineva, din orice motiv, poate ridica un semnal roșu despre un sistem AI, în ciuda faptului că nu a făcut nimic cu acel AI, vei fi inundat de steaguri roșii. Mai rău încă, nu vei putea discerne grâul de pleava. Întreaga abordare a steagului roșu se va prăbuși sub propria greutate, dărâmând bunătatea ideii, permițând rădăcinii și bătălii să scufunde întreaga navă.

Amețitor și derutant.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome, bazate pe inteligență artificială, luminează ceva despre legile AI cu steag roșu și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și legile steag roșu AI

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Să schițăm un scenariu care ar putea folosi o lege Red Flag AI.

Urci într-o mașină autonomă bazată pe inteligență și vrei ca vehiculul autonom să te conducă la magazinul tău alimentar local. În timpul călătoriei relativ scurte, AI urmează un traseu care ți se pare oarecum greșit. În loc să meargă pe calea cea mai directă, AI navighează spre străzile îndepărtate, ceea ce face ca timpul de condus să fie mai mare decât ar putea fi în mod normal.

Ce se întâmplă?

Presupunând că plătiți pentru utilizarea mașinii cu conducere autonomă, ați putea fi suspicios că AI a fost programat să conducă o rută mai lungă pentru a încerca să creșteți tariful sau costul călătoriei. Oricine a luat vreodată un taxi convențional condus de oameni știe de șmecheria care poate avea loc pentru a obține mai mult aluat pe contor. Desigur, cu oamenii care au GPS pe smartphone-urile lor în timp ce călătoresc într-un taxi sau echivalent, puteți prinde cu ușurință un șofer uman care pare să parcurgă pe furiș rute inutil de lungi.

Se pare că ai o altă îngrijorare în legătură cu alegerea traseului, ceva care te roade cu adevărat.

Să presupunem că ruta a fost făcută pentru a evita anumite părți ale orașului din cauza fațetelor rasiale. Există cazuri documentate de șoferi umani care au fost prinși făcând astfel de alegeri, vezi discuția mea la linkul aici. Poate că AI a fost programat în mod negativ.

Decizi să ridici un steag roșu.

Să presupunem, de dragul discuțiilor, că a fost adoptată o lege Red Flag AI care acoperă jurisdicția dumneavoastră. Poate fi legea locală, legea de stat, legea federală sau internațională. Pentru o analiză pe care am făcut-o în colaborare cu Inițiativa de politică a vehiculelor autonome (AVPI) de la Harvard cu privire la importanța tot mai mare a leadership-ului local atunci când comunitățile adoptă utilizarea mașinilor cu conducere autonomă, a se vedea linkul aici.

Deci, accesați online o bază de date Red Flag AI. În baza de date de incidente, introduceți informațiile despre călătoria cu mașina cu conducere autonomă. Aceasta include data și ora călătoriei de conducere, împreună cu marca și modelul mașinii cu conducere autonomă. Apoi intrați pe ruta de navigație care părea a fi suspectă și sugerați sau poate susțineți că IA a fost concepută cu intenții și capacități părtinitoare sau discriminatorii.

Ar trebui să speculăm cu privire la celelalte detalii ale Legii steag roșu AI cu privire la ceea ce se întâmplă în continuare în acest scenariu particular. În teorie, ar exista o prevedere ca cineva să revizuiască steagul roșu. Probabil că ar căuta să convingă producătorul de automobile sau firma de tehnologie de conducere autonomă să-și explice punctul de vedere asupra steagului roșu înregistrat. Câte alte astfel de semnale roșii au fost înregistrate? Ce rezultate au produs acele semnale roșii?

Și așa mai departe ar merge.

Concluzie

Absolut, îndeamnă unii sceptici.

Nu avem nevoie de legile Red Flag AI, ei exercită cu severitate. A face ceva de genul va strica lucrările când vine vorba de ritmul și progresul AI. Orice astfel de legi ar fi greoaie. Ai crea o problemă care nu rezolvă o problemă. Există și alte moduri de a trata AI care sunt proaste. Nu prindeți orbește de paie pentru a face față IA părtinitoare.

Schimbând vitezele, știm cu toții că toreerii folosesc pelerine roșii pentru a atrage aparent atenția taurului furios. Deși roșu este culoarea pe care o asociem cel mai mult cu această practică, s-ar putea să fii surprins să știi că oamenii de știință spun că taurii nu percep culoarea roșie a muletei (sunt daltoniști față de roșu). Spectacolul popular MythBusters a făcut o examinare destul de distractivă a acestei chestiuni. Mișcarea pelerină este mai degrabă elementul cheie decât culoarea aleasă.

Pentru cei care lasă deoparte nevoia de Legi Red Flag AI, o cerere reconvențională este că avem nevoie de ceva de o natură ondulatorie dramatică și inconfundabilă pentru a ne asigura că dezvoltatorii AI și firmele care implementează AI se vor îndepărta de AI părtinitoare sau proastă. Dacă nu este un steag roșu, poate o pelerină care flutură sau, practic, orice fel de abordare de alertă ar putea fi în domeniul de a primi atenția cuvenită.

Știm cu siguranță că există IA proastă și că mult mai mult AI proastă se va îndrepta în direcția noastră. Găsirea unor modalități de a ne proteja de AI adverse este crucială. De asemenea, este la fel de important să stabiliți balustrade pentru a încerca să împiedice AI proastă să pătrundă în lume.

Ernest Hemingway a declarat celebru că nimeni nu își trăiește viața până la capăt, cu excepția torerilor. Trebuie să ne asigurăm că oamenii își pot trăi viața pe tot parcursul, în ciuda oricăror rele sau nebunie AI promulgată asupra noastră.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- algoritmi-partențiali-în-sisteme-ai-autonome/