Etica AI se luptă cu inevitabilul accidentelor AI, care planează și asupra mașinilor autonome care se conduc singure

Poate cunoști pe cineva care pare să fie deosebit de predispus la accidente?

Se pare că toți facem.

Poate că persoana este acel tip care este apt să alunece pe o coajă de banană sau să doboare peste o vază prețioasă în camera ta de zi. Sunt un magnet uman pentru accidente de un fel sau altul. S-ar putea să fie atât de rău încât să nu fii chiar și aproape de ei uneori. S-ar putea să obțineți revărsarea de rău augur sau să suferiți consecințele neplăcute ale unuia dintre accidentele lor neplăcute.

Dar poate că suntem prea duri atunci când sugerăm că oricine este mai predispus la accidente decât alții. Ar putea fi argumentat că accidentele se pot întâmpla oricăruia dintre noi. Cu toții suntem supuși posibilității de a comite sau de a fi implicați într-un accident. Cei mai buni dintre noi incluși.

Să punem deasupra acestei discuții o întrebare în plus supărătoare.

Sunt accidentele inevitabile?

Cu alte cuvinte, indiferent cât de mult am încerca să prevenim accidentele, este posibil să existe în mod inextricabil o șansă și o certitudine supremă că vor avea loc accidente. Puteți căuta să protejați lumea de accidente. Asta pare, fără îndoială, prudent. Dar într-un fel sau altul, accidentele le vor ridica în continuare capul urât.

După cum se spune, accidentele așteaptă să se întâmple.

Ar putea fi util să clarificăm ce se înțelege prin referirea la un eveniment ca fiind etichetat în mod corespunzător ca un accident. Definiția obișnuită a dicționarului este că un accident este un tip de incident care are loc în mod neașteptat și neintenționat, pentru care există un rezultat nefericit care constă într-o aparență de daune sau rănire.

Desfaceți cu atenție această definiție.

Incidentul menționat este neașteptat. Aceasta înseamnă că nu păream să realizăm că accidentul în sine va apărea.

Incidentul menționat este neintenționat. Acest lucru sugerează că ar trebui să excludem circumstanțele în care cineva a căutat în mod intenționat să aibă loc incidentul. Dacă un fars așează o coajă de banană pe podea unde știe că va păși un nenoroc și nebănuit, ai fi greu să afirmi că persoana care s-a împiedicat de ea a suferit un accident. În schimb, au fost păcăliți și duși insidios într-o capcană.

Definiția include și criteriul că rezultatul este nefericit. Un accident în această lumină trebuie să ducă la un rezultat acru. Persoana care a doborât din greșeală o vază a crăpat și, posibil, a deteriorat obiectul savurat fără reparații. Proprietarul vazei este prejudiciat de pierderea valorii. Persoana care a dat peste vază ar putea acum să-i datoreze proprietarului pierderea. Ferește cerul ca cineva să fi fost tăiat sau casat de ruperea vazei.

De dragul unui echilibru egal, am putea dori să remarcăm că există și așa-numitele accidente „bune”. O persoană s-ar putea găsi în mare noroc sau poate acumula un alt beneficiu vital din cauza rezultatului unui accident. Unul dintre exemplele cele mai des citate îl reprezintă Sir Alexander Fleming și apreciata sa descoperire a penicilinei. Povestea spune că a fost puțin neglijent în laboratorul său și, la întoarcerea dintr-o vacanță de două săptămâni, a găsit un mucegai pe una dintre plăcile sale de cultură. Se pare că el a spus asta despre această problemă: „Uneori găsește ceea ce nu caută. Când m-am trezit imediat după zorii zilei de 28 septembrie 1928, cu siguranță nu aveam de gând să revoluționez toate medicamentele descoperind primul antibiotic sau ucigaș de bacterii din lume. Dar cred că asta a fost exact ceea ce am făcut.”

Vom lăsa deoparte accidentele favorabile și ne vom concentra aici pe accidentele sumbre. Versiunea cu fața încruntă a accidentelor este cea în care acele rezultate adverse pot pune viața în pericol în special sau pot avea rezultate oneroase. Pe cât posibil, accidentele negative pe care dorim să le minimizăm (și, bineînțeles, accidentele pozitive pe care am dori să le maximizăm, dacă acest lucru este fezabil, deși voi acoperi varianta cu fața zâmbitoare într-o coloană ulterioară).

Aș dori să reformulez ușor întrebarea anterioară despre inevitabilitatea accidentelor. Până acum, ne-am păstrat atenția asupra accidentelor care au loc în cazul particular al unei persoane singulare. Nu există nicio îndoială că accidentele pot afecta, de asemenea, o multitudine de oameni simultan. Acest lucru poate fi întâlnit în special atunci când oamenii sunt cufundați într-un sistem complex de un fel sau altul.

Pregătește-te pentru o variantă a întrebării prezentate anterior.

Sunt accidentele de sistem inevitabile?

Ar trebui să ne gândim la asta.

Să presupunem că o podea a fabricii este amenajată pentru a face piese pentru mașini. Cei care au proiectat fabrica sunt să spunem extrem de îngrijorați de accidentele de muncitori care ar putea avea loc. Muncitorii din fabrică sunt obligați să poarte căști în orice moment. Semnele din fabrică îndeamnă să fii atent la accidente și să fii atent la munca ta. Sunt luate toate măsurile de precauție pentru a preveni accidentele.

În acest sistem, am putea spera că nimeni nu va suferi vreodată un accident. Crezi că există zero șanse ca un accident să se întâmple? Aș îndrăzni să sugerez că niciun gânditor rezonabil nu ar paria că șansa unui accident este zero în acest caz. Șansele ar putea fi foarte mici ca un accident să se întâmple, totuși știm și presupunem că, în ciuda tuturor măsurilor de precauție, există încă un minim de risc ca un accident să aibă loc.

Toate acestea indică ideea că într-un sistem de complexitate suficientă suntem obligați să credem că accidentele vor avea loc în continuare, indiferent de cât de mult ne străduim să le prevenim. Ne susținem fără tragere de inimă în stipularea că accidentele de sistem sunt într-adevăr inevitabile. O declarație grandioasă de acest calibru ar putea avea o avertizare că sistemul ar trebui să aibă un anumit prag de complexitate, astfel încât să fie în esență imposibil să se acopere toate bazele pentru a preveni în totalitate accidentele.

Acum ați fost introdus pas cu pas într-o teorie larg conturată despre accidente care poate fi etichetată drept Accident Normal sau Teoria Accident Normal (NAT). Iată o descriere la îndemână făcută de cercetătorii care au examinat această noțiune: „La o scară suficient de mare, orice sistem va produce „accidente normale”. Acestea sunt accidente inevitabile cauzate de o combinație de complexitate, cuplare între componente și daune potențiale. Un accident normal este diferit de accidentele mai frecvente de defectare a componentelor prin aceea că evenimentele și interacțiunile care duc la un accident normal nu sunt înțelese de către operatorii sistemului” (după cum se precizează în „Înțelegerea și evitarea defecțiunilor AI: Ghid practic” de Robert Williams și Roman Yampolskiy, Filosofii jurnal).

Motivul pentru care te-am adus în țara așa-ziselor accidente normale este că ar putea fi nevoie să aplicăm cu atenție această teorie la ceva care devine treptat și inevitabil omniprezent în societatea noastră, și anume apariția Inteligenței Artificiale (AI).

Să pătrundem în asta.

Unii oameni presupun în mod fals că AI va fi perfecțiunea. Sistemele AI nu vor face greșeli și nu ne vor pune în necazuri, spun speculațiile. Tot ce trebuie să faceți este să vă asigurați că acești dezvoltatori AI fac o treabă suficient de bună și, voilà, AI nu va face niciodată nimic care ar putea fi interpretat ca fiind accidental sau a generat un accident.

Nu atât de repede în acea credință ipotetică. Dacă sunteți dispus să cumpărați în teoria lui accidente normale, orice AI de orice complexitate substanțială va provoca inevitabil un accident. Indiferent de câte mânuiri de noapte fac acei dezvoltatori AI pentru a preveni un accident, AI-ul va fi cu siguranță implicat la un moment dat într-un accident. Așa se sfărâmă prăjitura. Și nu există răgaz plângând în laptele nostru vărsat despre asta.

Gândiți-vă la combinația AI și la principiile conceptuale ale accidente normale.

Imaginează-ți că avem un sistem AI care controlează armele nucleare. AI a fost creat cu grijă. Fiecare control și echilibru imaginabil a fost codificat în sistemul AI. Suntem feriți de un accident bazat pe inteligență artificială care ar putea avea loc? Cei care susțin punctul de vedere al accidentelor normale ar spune că nu suntem chiar atât de siguri pe cât s-ar putea presupune. Având în vedere că AI-ul este probabil să fie deosebit de complex, un accident normal așteaptă în tăcere acolo să apară într-o zi, poate în cel mai rău moment posibil.

Esența acelor întrebări și neclarități spinoase este că trebuie să fim atenți că AI va fi încărcată de accidente, iar omenirea trebuie să facă ceva sensibil și proactiv cu privire la pericolele care pot apărea. După cum veți vedea într-un moment sau două, aceasta este o considerație care se profilează atunci când vine vorba de utilizarea AI, iar domeniul eticii AI și AI etică se luptă destul de mult cu privire la ce să facă. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Înainte de a merge într-o groapă de iepure, să ne asigurăm că suntem pe aceeași pagină despre natura AI. Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om care vă oferă sfaturi. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici). Toate aceste scenarii spuse ar accelera evaluarea sursei.

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În total, o speranță generală este că, prin stabilirea unui simț al preceptelor de etică a AI, vom putea cel puțin să creștem conștientizarea societății cu privire la ceea ce poate face AI în mod benefic și poate produce și în mod negativ. Am discutat pe larg diferite analize colective ale principiilor eticei AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a spus mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

S-ar putea să fie nevoie să adăugăm listelor lăudate de etică AI pe care trebuie să le luăm în considerare în mod explicit și să luăm măsuri deschise pentru a preveni sau cel puțin a atenua în mod strident bazate pe IA. accidente normale asta s-ar putea întâmpla. Cei care dezvoltă AI trebuie să facă tot posibilul în acest sens. Cei care implementează AI trebuie să facă la fel. Cei care folosesc sau sunt cumva supuși AI ar trebui să fie atenți și să se ferească de posibilitatea unor accidente AI care se pare că vor apărea.

Ați putea fi tentat să credeți că în IA pot fi incluse suficiente măsuri de precauție pentru ca șansele unui accident să scadă la zero. Pentru cei care sunt tehnicieni, orgoliul obișnuit este că, dacă o piesă de tehnologie poate genera o problemă, o altă bucată de tehnologie poate rezolva cu siguranță problema. Continuați să aruncați din ce în ce mai multă tehnologie până când problema dispare.

Ei bine, cei care au studiat accidentele orientate spre sisteme ar tinde să nu fie de acord și să răspundă politicos la presupusa pompozitate a tehnologiei, oferind un punct de vedere cunoscut sub numele de Modelul Swiss Cheese (SCM): „În SCM, straturile de siguranță sunt modelate ca felii de brânză cu găuri în ele reprezentând puncte slabe în fiecare strat de siguranță. În timp, găurile își schimbă forma și se mișcă. În cele din urmă, indiferent câte felii de brânză (straturi de siguranță) există, găurile se vor alinia permițând o lovitură dreaptă prin toate feliile de brânză (se produce un accident)” (conform lucrării citate anterior de Robert Williams și Roman Yampolskiy). ).

Nu vreau să mă blochez în această tangentă laterală dacă există sau nu o modalitate garantată de a programa AI pentru a preveni complet și întotdeauna orice șansă de accident. Există tot felul de abordări de demonstrare matematică și computațională care sunt încercate. Cred că este rezonabil și corect să declarăm că astăzi nu avem o metodă de lucru scalabilă și nici tehnologii care să poată garanta cu siguranță o astfel de șansă zero, în plus, cu siguranță suntem plini de tone și tone de IA care este produsă pe mâna pe care o producem. Știu cu siguranță că nu a căutat să respecte astfel de practici. Acest ultim punct este esențial, deoarece chiar dacă putem inventa ceva într-un laborator de inteligență artificială, scalarea acestuia la milioanele de eforturi de IA sălbatice și lipsite de griji în curs de desfășurare și care va continua să apară este o problemă complicată și probabil nu este rezolvată chiar dacă o mașină de dovezi computațională de argint. glonțul a existat.

Un alt punct despre care cred că merită o scurtă mențiune constă în inteligența artificială care este transformată în acțiuni nefaste ca urmare a unor actori umani rău intenționați. Nu voi plasa acele cazuri în domeniul accidentelor AI. Amintiți-vă că discuția de deschidere a sugerat că definiția din dicționar a unui accident a fost un incident al unui neintenționat natură. Dacă un ciberescroc uman reușește să facă un sistem AI să facă lucruri rele, nu clasific acea inteligență artificială ca având un accident. Am încredere că vei fi de acord cu această prezumție.

Apare o întrebare interesantă cu privire la cât de multe dintre diferitele acțiuni nefaste ale AI pot fi atribuite doar unui accident AI față de actul viclean al unui criminal cibernetic. Conform unora dintre bazele de date existente de raportare a incidentelor AI, se pare că accidentele AI se întâmplă mai mult decât incidentele provocate cu răutate, deși trebuie să iei această noțiune cu o doză mare de sare. Spun asta pentru că există o mare tentație de a nu raporta când un sistem AI a fost atacat și poate fi ceva mai dispus să raportezi când are loc un accident AI.

Există o avertizare extrem de importantă pe care trebuie să o discutăm cu privire la accidentele AI.

Folosirea sloganului „Accidente AI” este în general nedorită și va crea o mizerie pentru noi toți, adică pentru întreaga societate. Când un om probabil are un accident, de multe ori ridicăm din umeri și suntem înțelegătoare cu persoana care a avut accidentul. Se pare că tratăm cuvântul „accident” ca și cum ar însemna că nimeni nu este responsabil pentru ceea ce s-a întâmplat.

Să luăm exemplul intrării într-un accident de mașină. O mașină se balansează larg la o viraj la dreapta și lovește accidental o altă mașină care mergea drept înainte. Shucks, a fost doar un accident și s-a întâmplat accidental. Cei care nu au fost implicați în incident vor lăsa probabil problema să alunece dacă evenimentul este formulat în termeni de a fi doar un accident care a avut loc.

Am însă sentimentul că, dacă ai fi în mașina care a fost lovită, nu ai fi atât de înțelegător cu șoferul care a făcut virajul prea larg. Părerea dumneavoastră ar fi cu siguranță că celălalt șofer a fost un șofer prost și că fie un act de conducere aparent ilegal, fie neînțelept a dus la accidentul de mașină. Etichetând incidentul drept „accident”, șoferul care a rămas blocat se află acum într-un dezavantaj oarecum, deoarece se pare că totul a avut loc doar din întâmplare, mai degrabă decât prin mâinile șoferului care a încurcat.

De fapt, cuvântul „accident” este atât de plin de conotații variate încât, în general, statisticile guvernamentale privind accidentele de mașină se referă la subiect ca coliziuni de mașini sau accidente de mașini, mai degrabă decât să folosească expresia accidente de mașină. O coliziune cu mașina sau un accident de mașină nu pare să aibă nicio implicație cu privire la modul în care a avut loc incidentul. Între timp, formularea unui „accident de mașină” aproape ne face să credem că a fost o ciudatenie a destinului sau, cumva, în afara mâinilor omenirii.

Puteți vedea din abundență cum intervine această considerație conotațională atunci când vă referiți la accidentele AI. Nu vrem ca dezvoltatorii AI să se ascundă în spatele scutului conotațional conform căruia IA a făcut accidental să rănească cuiva. Același lucru este valabil și pentru cei care implementează AI. Ați putea argumenta că formularea „accidentelor AI” este aproape o antropomorfizare a AI care va induce societatea în eroare pentru a le permite oamenilor care se aflau în culisele AI să scape de responsabilitate. Pentru discuția mea despre importanța tot mai mare de a considera oamenii responsabili pentru inteligența lor artificială, consultați discuția mea la acest link aici și acest link aici.

Voi folosi de acum înainte sloganul accidentelor AI, dar o fac fără tragere de inimă și numai pentru că este modul convențional de a mă referi la acest fenomen. Încercările de a exprima acest lucru diferit tind să fie, din păcate, mai umflate și nu la fel de ușor de citit. Asigurați-vă că interpretați sloganul într-o manieră care să nu vă facă să priviți în altă parte și să nu realizați că oamenii care stau la baza IA sunt vinovați atunci când AI merge prost.

Pentru a ilustra probabila confuzie sau aspectele înșelătoare ale referirii la AI ca fiind accidente, putem reveni la observațiile mele despre răsturnarea unei vaze. Luați în considerare acest exemplu de AI care face acest lucru: „Această problemă are de-a face cu lucruri care sunt făcute accidental sau indiferență de către AI. Un robot de curățare care dă peste o vază este un exemplu în acest sens. Mediile complexe au atât de multe tipuri de „vaze” încât este puțin probabil să putem programa o penalizare pentru toate efectele secundare” (conform lucrării lui Robert Williams și Roman Yampolskiy).

Un sistem AI care este pus în uz într-o gospodărie și apoi „accidental” trântește peste o vază ar părea să sugereze că nimeni nu ar trebui să fie învinuit pentru această acțiune adversă a AI. A fost doar un accident, s-ar putea deplânge cineva. Pe de altă parte, ar trebui să ne întrebăm pe bună dreptate de ce sistemul AI nu a fost programat să se ocupe de situația vazei în general. Chiar dacă dezvoltatorii AI nu au anticipat o vază în sine ca fiind în sfera obiectelor care ar putea fi întâlnite, cu siguranță ne putem întreba de ce nu a existat o evitare a obiectelor generale care ar fi împiedicat sistemul AI să doboare peste vază (astfel, AI ar putea să nu clasifice vaza drept vază, dar tot ar fi putut-o evita ca obiect detectabil de evitat).

Am prezis și continui să prezic că ne îndreptăm treptat către o luptă juridică uriașă pentru apariția sistemelor AI care se îndreaptă spre „accidente AI” și provoacă o anumită formă de rău. Până acum, societatea nu a reacționat într-un mod considerabil la respingerea legală a inteligenței artificiale care este aruncată pe piață și produce consecințe negative, fie din intenție, fie neintenționat. Trenul AI de astăzi, care a devenit o goană de aur a producătorilor de AI pe jumătate și a celor care implementează în grabă implementarea AI, au noroc chiar acum și rămân relativ neatinse de procese civile și urmăriri penale.

Reacția legală alimentată de inteligența artificială urmează să vină, mai devreme sau mai târziu.

Mergând mai departe, cum să încercăm să facem față inevitabilității așa-ziselor accidente AI?

Un lucru pe care îl putem face imediat este să încercăm să anticipăm cum ar putea apărea accidentele AI. Anticipând accidentele cu inteligența artificială, putem încerca cel puțin să găsim mijloace pentru a le reduce sau a minimiza probabilitatea lor de a avea loc. În plus, putem încerca să punem balustrade de protecție, astfel încât, atunci când are loc un accident AI, șansele de vătămare demonstrativă să fie reduse.

Un set util de factori care au fost descriși în articolul de cercetare citat anterior Înțelegerea și evitarea eșecurilor AI: un ghid practic include aceste proprietăți (după cum este citat din lucrarea de cercetare):

  • Sistemul care este afectat de ieșirile AI.
  • Întârziere între ieșirile AI și sistemul mai mare, observabilitatea sistemului, nivelul de atenție umană și capacitatea operatorilor de a corecta funcționarea defectuoasă a AI.
  • Daune maxime posibile prin utilizarea rău intenționată a sistemelor controlate de AI.
  • Cuplarea componentelor în apropierea AI și complexitatea interacțiunilor.
  • Decalajul de cunoștințe despre AI și alte tehnologii utilizate și nivelul de energie al sistemului.

În acest moment al acestei discuții abundente, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea elucida în continuare subiectul accidentelor AI. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre apariția așa-numitelor accidente de inteligență artificială și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și incidente AI

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și posibilitățile etice AI care implică apariția așa-numitelor accidente AI.

Imaginează-ți că o mașină autonomă bazată pe inteligență artificială este în curs de desfășurare pe străzile din cartierul tău și pare să conducă în siguranță. La început, ai acordat o atenție deosebită de fiecare dată când ai reușit să arunci o privire asupra mașinii care se conduce singur. Vehiculul autonom s-a remarcat prin raftul său de senzori electronici care includeau camere video, unități radar, dispozitive LIDAR și altele asemenea. După multe săptămâni în care mașina cu conducere autonomă se plimbă prin comunitatea ta, acum abia dacă observi. În ceea ce vă privește, este doar o altă mașină pe drumurile publice deja aglomerate.

Ca să nu credeți că este imposibil sau neplauzibil să vă familiarizați cu a vedea mașini cu conducere autonomă, am scris frecvent despre modul în care locurile care fac parte din sfera de încercare a mașinilor cu conducere autonomă s-au obișnuit treptat să vadă vehiculele armonizate. Mulți dintre localnici au trecut în cele din urmă de la gura căscată uimitoare, la acum emitând un căscat expansiv de plictiseală pentru a asista la acele mașini care se conduc singure.

Probabil că motivul principal în acest moment pentru care ar putea observa vehiculele autonome este din cauza factorului de iritare și exasperare. Sistemele de conducere bazate pe inteligență artificială se asigură că mașinile respectă toate limitele de viteză și regulile de circulație. Pentru șoferii umani agitați în mașinile lor tradiționale conduse de oameni, uneori te enervezi când rămâi în spatele mașinilor cu autonomie bazate pe inteligență artificială care respectă strict legea.

Este ceva cu care ar putea fi nevoie să ne obișnuim cu toții, pe drept sau greșit.

Înapoi la povestea noastră.

Într-o zi, mașina care se conduce singur intră într-un accident.

În timpul virajului la dreapta, sistemul de conducere AI a balansat larg vehiculul autonom și o mașină condusă de oameni a fost lovită. Mașina condusă de oameni mergea drept înainte pe banda corectă de circulație. Nu a existat nicio oportunitate specială pentru șoferul uman de a vira sau de a evita să fie lovit. În plus, nu a existat nicio avertizare sau indicație din partea mașinii care se conduce singur că va face pe scară largă virajul la dreapta.

Este un accident?

Putem spune cu siguranță că este inclus în rubrica de a fi un accident AI. Baza unei astfel de afirmații este că a existat un sistem de conducere AI la volanul mașinii care se conduce singur. Cumva, din orice motiv, AI a optat să facă o leagăn larg atunci când a virat la dreapta. Rezultatul a dus la o mașină care conducea autonomă să lovească o mașină condusă de oameni.

Amintiți-vă de discuția anterioară despre conotațiile asociate cu cuvântul „accident” și vedeți cum astfel de nuanțe intervin în acest scenariu. De asemenea, amintiți-vă că am discutat despre cazul unui șofer uman care face o viraj larg la dreapta și se lovește de o mașină condusă de oameni. Ne-am dat seama că noțiunea că acest act este un „accident” este înșelătoare și confuză. Șoferul uman care a făcut leagănul larg s-ar putea ascunde în spatele ideii că a avut loc doar un accident care a fost aparent din întâmplare sau capricii destinului.

În loc să etichetăm scenariul drept „accident AI” în cazul în care mașina cu conducere autonomă bazată pe inteligență artificială merge lat și lovește mașina condusă de oameni, poate ar trebui să spunem că a fost un accident de mașină sau o coliziune de mașină care a implicat un auto- mașină care conduce și o mașină condusă de oameni. Ne putem dispensa atunci de confuzia vacuă a faptului că este un accident de mijloace de necunoscut.

Care credeți că ar fi reacția publicului la incident?

Ei bine, dacă producătorul de automobile sau firma de tehnologie cu auto-conducere poate rămâne cu etichetarea chestiunii ca fiind un accident, ar putea fi capabili să evite potențiala reacție din partea comunității în general. Un sentiment de simpatie față de accidente toate spuse ar putea, eventual, să revarsă asupra circumstanței particulare. Pentru mai multe despre modul în care orașele, județele și liderii de stat vor reacționa potențial la incidentele cu vehicule autonome AI, vedeți discuția despre un studiu Harvard pe care l-am co-condus și așa cum este descris la linkul aici.

Dacă situația este descrisă în mod clar ca un accident de mașină sau o coliziune de mașină, poate că asta ar putea permite apoi să ne dăm seama că cineva sau ceva este probabil de vină pentru incident. O reacție neclintită ar putea fi că AI trebuie să fie responsabilă. Ideea este că până când sau dacă vom decide vreodată să ungem AI ca având o aparență de personalitate juridică, nu veți putea să atribuiți responsabilitatea AI în sine (vezi discuția mea despre AI și personalitatea juridică la linkul aici).

Putem inspecta sistemul de conducere AI pentru a încerca să ne dăm seama ce a dus la conducerea aparent inadecvată și la accidentul de mașină ulterior. Asta nu înseamnă însă că AI va fi tras la răspundere. Părțile responsabile includ dezvoltatorii AI, operatorul de flotă al mașinii cu conducere autonomă și alții. Le includ și pe altele, deoarece există posibilitatea ca orașul să fie parțial responsabil pentru proiectarea colțului în care a avut loc virajul. În plus, să presupunem că un pieton iese din colț și sistemul de conducere AI a optat pentru a evita persoana și, totuși, sa blocat în accidentul de mașină.

Și așa mai departe.

Concluzie

Am dori să știm ce calculează AI și pentru ce a fost programat să facă. A făcut AI așa cum a fost codificat? Poate că AI a întâmpinat o eroare sau o eroare în programare, care nu scuză acțiunile, dar oferă mai mult un indiciu despre cum a apărut accidentul.

Ce fel de balustrade AI au fost programate în sistemul de conducere AI? Dacă ar exista balustrade, am dori să ne dăm seama de ce păreau să nu împiedice accidentul de mașină. Poate că sistemul de conducere AI ar fi putut să se oprească în loc să facă viraj. Am dori să știm ce alternative a evaluat computațional IA în timpul incidentului.

În afară de a ajunge la fundul incidentului particular, un alt scrupul de drept este dacă sistemul de conducere AI are o defecțiune sau alt aspect încorporat care va face tipuri similare de acte adverse. În esență, acest incident ar putea fi un indicator revelator pentru mai multe ce vor urma. Cum au fost folosite simulările computerizate ale situațiilor de conducere pentru a încerca și a anticipa acest tip de incitație a sistemului de conducere AI? Au existat suficiente teste de conducere pe carosabil pentru a fi descoperit problemele AI care ar fi putut duce la accidentul de mașină?

Acest scenariu evidențiază o enigmă controversată care se confruntă cu apariția mașinilor autonome bazate pe inteligență artificială.

Merge așa.

Pe de o parte, există dorința societății de a adopta rapid mașinile cu conducere autonomă, datorită speranței că sistemele de conducere AI vor fi la fel de sigure sau posibil mai sigure decât șoferii umani. Numai în Statele Unite, în prezent avem aproape 40,000 de decese umane anual din cauza accidentelor de mașină și a aproximativ 2.5 milioane de răni umane. Analizele sugerează că o parte considerabilă din acele accidente de mașină sunt atribuite erorilor umane, cum ar fi conducerea în stare de ebrietate, conducerea distrasă de atenție etc. (vezi evaluarea mea asupra unor astfel de statistici la linkul aici).

Sistemele de conducere AI nu vor bea și vor conduce. Nu vor avea nevoie de odihnă și nu se vor uza la volan. Presupunerea este că prin stabilirea mașinilor cu conducere autonomă ca mod de transport viabil, putem reduce numărul de șoferi umani. Acest lucru, la rândul său, ar trebui să însemne că vom reduce sumar numărul anual de decese umane și răni în urma accidentelor de mașină.

Unii experți au spus că vom ajunge cu zero decese și zero răniți, iar acele mașini care se conduc singure se presupune că vor fi imposibil de prăbușit, dar acesta este un set cu totul absurd și complet fals de așteptări. Am explicat de ce acest lucru este atât de necinstit la linkul aici.

În orice caz, să presupunem că vom avea o anumită cantitate de accidente de mașină în care sunt implicate mașinile cu conducere autonomă. Să presupunem și că acele accidente de mașină vor avea o anumită cantitate de decese și răni. Întrebarea care este agonisită este dacă noi, ca societate, suntem dispuși să tolerăm deloc astfel de cazuri. Unii spun că, dacă se întâmplă chiar și un deces sau o rănire ca urmare a mașinilor care se conduc singure, întregul kit și kaboodle-ul ar trebui să fie închise.

Punctul de vedere compensatoriu este că, dacă viețile salvate reduc numărul anual, ar trebui să continuăm să încurajăm apariția mașinilor cu conducere autonomă și să nu reacționăm într-un mod atât de ilogic. Va trebui să acceptăm premisa că un anumit număr de decese și răniri vor exista în continuare, chiar și în cazul mașinilor care se conduc singure, și totuși să realizăm că numărul anual, dacă este scăzut, sugerează că suntem pe calea cea bună.

Desigur, unii susțin că nu ar trebui să avem mașini cu conducere autonomă pe drumurile noastre publice până când acestea sunt fie autorizate pentru o astfel de utilizare, ca urmare a unor simulări ample și exhaustive bazate pe computer, fie prin teste private pe circuit închis. Contraargumentul este că singura modalitate viabilă și cea mai rapidă de a pune în funcțiune mașinile cu conducere autonomă este folosirea drumurilor publice și că orice întârziere în adoptarea mașinilor cu conducere autonomă va permite, altfel, să continue numărările îngrozitoare ale accidentului auto condus de oameni. Am acoperit mai mult această dezbatere în rubricile mele și îndemn cititorii să se uite la acele discuții pentru a înțelege pe deplin perspectivele asupra acestei chestiuni controversate.

Să încheiem lucrurile deocamdată.

Se vor întâmpla accidente AI. Trebuie să rezistam impulsului de a interpreta un accident AI ca aparent accidental și, prin urmare, lasă-i pe creatori și pe cei care implementează AI să fie categoric dezactivați.

Există o întorsătură suplimentară cu care vă las ca un ultim gând intrigant pentru ziua dumneavoastră.

Comediantul Dane Cook ar fi spus această glumă despre accidentele de mașină: „În urmă cu câteva zile, am avut un accident de mașină. Nu e vina mea. Chiar dacă nu e vina ta, celălalt coboară din mașină și se uită la tine de parcă ar fi vina ta: De ce te-ai oprit la un semafor roșu și m-ai lăsat să te lovesc făcând 80!”

Unde întorsătura vine în prim-plan este posibilitatea ca un sistem AI să opteze pentru a insista că, atunci când are loc un accident AI care implică respectiva IA, AI susține că incidentul a fost vina omului și, cu siguranță, nu vina AI. Apropo, acest lucru ar putea fi din belșug adevărat și omul ar putea încerca să facă țap ispășitor AI pretinzând că a fost vina AI.

Sau poate că AI încearcă să-l facă pe om ca țap ispășitor.

Vedeți, inteligența artificială pe care o creăm ar putea fi dificilă în acest fel, fie din întâmplare, fie nu.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- conduce-si-masini/