AI etică sperând ambițios ca AI să învețe singur comportamentul etic, cum ar fi cazul AI în mașinile cu conducere autonomă

Aristotel a afirmat celebru că educarea minții fără educarea inimii nu este deloc educație.

Ai putea interpreta această remarcă perspicace pentru a sugera că învățarea despre etică și comportament moral este extrem de vitală pentru omenire. În dezbaterea clasică natură versus hrănire, trebuie să ne întrebăm cât de multe dintre obiceiurile noastre etice sunt instinctiv native, în timp ce cât de mult se învață de-a lungul zilelor noastre de viață. Copiii mici sunt atenți la semeni și probabil își culeg bazele etice pe baza a ceea ce văd și aud. Același lucru se poate spune despre adolescenți. Pentru adulții cu mintea deschisă, și ei vor continua să se adapteze și să progreseze în gândirea lor etică ca urmare a experienței lumii de zi cu zi.

Desigur, a preda explicit pe cineva despre etică este, de asemenea, parte pentru curs. Oamenii sunt obligați să învețe despre modalități etice prin participarea la cursuri pe această temă sau, poate, mergând la evenimente și practici de interes pentru ei. Valorile etice pot fi clar identificate și împărtășite ca un mijloc de a-i ajuta pe ceilalți în formularea propriei structuri de etică. În plus, etica poate fi ascunsă subtil în povești sau în alte moduri de instruire care în cele din urmă transmit un mesaj despre ce constă comportamentul etic.

Așa par să pătrundă oamenii eticii.

Cum rămâne cu inteligența artificială (AI)?

Îmi dau seama că o astfel de întrebare ar putea părea ciudată. Cu siguranță ne așteptăm ca oamenii să încorporeze etica și să treacă prin viață cu o oarecare aparență de cod moral. Este un fapt simplu și evident. Pe de altă parte, o mașină sau un computer nu pare să se încadreze în același cadru de referință. Reacția ta instinctă ar putea fi că este exagerat sau ciudat să consideri AI ca având o întruchipare a eticii și a codurilor morale.

Cel mai bun lucru pe care s-ar părea că putem face cu privire la IA este să o concepem astfel încât să nu se abată de la comportamentul etic. Dezvoltatorii AI și cei care activează AI trebuie să fie considerați responsabili pentru a se asigura că IA așa cum este proiectată și atunci când este implementată este deja în conformitate cu preceptele etice. Ieșit din poartă, ca să spunem așa, AI-ul ar trebui să fie deja curat și gata să meargă ca un mecanism complet adecvat din punct de vedere etic.

Cu siguranță ați avea dreptate când credeți că sistemele AI ar trebui într-adevăr să fie create astfel încât să se încadreze deja în întregime într-o bază etică. Societatea a fost destul de entuziasmată când a fost lansat cel mai recent val de sisteme AI și a părut să demonstreze că ne aflam într-o eră a AI pentru bine. AI ar ajuta la rezolvarea multor dintre cele mai dificile probleme ale lumii. Progresele tehnologice au fost valorificate pentru a suplimenta capacitățile umane cu facilități asemănătoare cognitive, deși permiteți-mi să subliniez că nu avem încă nicio IA sensibilă și nu știm dacă va fi atinsă IA sensibilă.

Problema grăbirii de a aduce AI în lume a dezvăluit treptat partea urâtă a IA, cunoscută sub numele de AI pentru rău. Au existat o mulțime de titluri despre sistemele AI care folosesc luarea deciziilor algoritmice (ADM) care este plină de părtiniri și inechități. În plus, o mare parte din IA contemporană suferă de o lipsă de transparență, tinde să fie inexplicabilă în ceea ce privește explicarea deciziilor computaționale, manifestă frecvent o lipsă de corectitudine și le-a permis unora să-și devieze responsabilitatea umană arătând cu degetul către AI.

Am acoperit pe larg IA etică și etica IA în scrierile mele, inclusiv linkul aici și linkul aici, Doar pentru a numi câteva.

Cum poate fi AI pentru rău dacă luăm ca o construcție declarată că AI ar trebui creată de la început pentru a evita acțiunile lipsite de etică?

Răspunsul este multiplu.

În primul rând, mulți dezvoltatori de inteligență artificială și companii care dezvolte inteligență artificială nu au nicio idee despre importanța modelării inteligenței artificiale pentru a rămâne în limitele etice. Conceptul nu este deloc pe radarul lor. Atractia de a face bani rapid îi determină pe unii să avanseze asupra noțiunilor de AI sălbatice pe care doresc să le producă în mod intenționat. Nu este nevoie să-ți dai seama de lucruri etice. Doar construiește AI și pune-l în funcțiune.

În al doilea rând, există cei care fac IA care înfrumusețează o conștientizare totală a ramificațiilor etice, dar subminează în mod deschis sau ignoră oarecum considerentele AI etice. O perspectivă comună este mantra clasică a tehnicianului de a urmări să eșueze rapid și să eșueze des. Continuați să repetați până când lucrurile se vor rezolva corespunzător. Șansele de a stoarce orice încorporare sistematică și atentă a eticii AI în acele eforturi rapide de AI sunt, din păcate, mici. Discutam necesitatea împuternicirii conducerii față de IA etică la linkul aici.

În al treilea rând, există o mulțime de neclarități cu privire la ce balustrade etice ar trebui să fie întreținute atunci când concepe AI. Sigur, în zilele noastre există multe linii directoare de etică AI, vezi acoperirea mea la linkul aici, deși aceste precepte teoretice la îndemână sunt greu de transformat în mod necesar în specificații pentru un anumit sistem AI care este construit. Am indicat că vom vedea încet o apariție a instrumentelor și metodologiilor de construire a AI care includ practici de codare etică AI, ajutând la reducerea decalajului dintre aspectele abstracte și fațetele proverbiale care întâlnesc drumul.

În al patrulea rând, în conformitate cu accentul de aici, explorăm cazul afectat al IA care, chiar dacă este compus inițial în limitele etice, apoi ulterior, în timp ce este în uz, șerpuiește dincolo de parametrii presupuși codificați etic.

Trebuie să despachetăm asta.

O mare parte din IA de astăzi folosește Machine Learning (ML) și Deep Learning (DL). Acestea sunt tehnici și tehnologii de potrivire a modelelor de calcul. În general, ideea este că colectați împreună o mulțime de date relevante pentru ceea ce AI ar trebui să poată face, introduceți acele date în potrivirea de modele computaționale alese, iar potrivirea modelului încearcă matematic să găsească modele utile. Rețineți că nu există nicio simțire din partea acestei AI (care, din nou, încă nu există așa ceva). Nici nu este implicat niciun raționament de bun-simț. Totul este matematică și calcule.

S-ar putea ca datele introduse în ML/DL să fie deja impregnate cu părtiniri și inechități. În acest caz, șansele sunt ca potrivirea modelului de calcul să imite doar aceleași tendințe. Dacă furnizați date care favorizează o rasă față de alta sau favorizează un gen față de celălalt, există o șansă considerabilă ca potrivirea tiparului să se alipească de aceea ca model descoperit.

O mare problemă cu acest tip de blocare este că ne-ar putea fi dificil să descoperim că tiparele se bazează pe acel aspect al datelor. Matematica spinoasă și complexă poate face ca suprafața unor astfel de modele găsite să fie destul de problematică. Chiar și testarea AI nu va dezvălui neapărat aceste tendințe, în funcție de gama și profunzimea testelor care sunt aplicate.

Deci, să presupunem că ați construit un sistem AI și v-ați făcut temele încercând mai întâi să evitați utilizarea datelor care aveau prejudecăți preexistente. Apoi, odată ce au fost întreprinse învățarea automată și învățarea profundă, ați testat rezultatele pentru a vedea dacă au apărut cumva părtiniri sau inechități. Să presupunem că nu puteți găsi astfel de înclinații neplăcute.

În total, acum se dă undă verde pentru a merge mai departe și a pune în funcțiune AI. Oamenii vor începe să folosească AI și probabil vor presupune că este adecvat din punct de vedere etic. Dezvoltatorii cred și asta. Compania care activează AI crede asta. Plecăm cu toții.

Iată ce se poate întâmpla.

Este probabil activată o bănuială de părtinire care nu a fost găsită în datele originale și care nu a fost surprinsă în timpul testării AI. Poate că acest lucru se întâmplă rar. Ai putea crede că atâta timp cât este rar, totul este bine. Mă îndoiesc însă că cei vulnerabili la părtinirea menționată sunt dispuși să vadă lucrurile așa. Îndrăznesc să spun că sistemul AI și cei care l-au formulat se vor confrunta cu repercusiuni, fie în instanțele de judecată, fie în instanța deschisă a opiniei societale.

O altă variantă este noțiunea proverbială de a lua un centimetru și a apuca o milă. Sentimentul ar putea fi inițial mic. În timpul utilizării AI, AI ar fi putut fi conceput pentru a se modifica pe măsură ce lucrurile merg. Acest tip de „învățare” sau „autoînvățare” poate fi destul de util. În loc să le solicite dezvoltatorilor de IA umană să modifice și să ajusteze continuu sistemul AI, AI este creat să facă acest lucru de la sine. Fără întârzieri, fără forță de muncă costisitoare etc.

Dezavantajul acestei auto-ajustări la îndemână este că inkling-ul poate deveni din ce în ce mai mare în sfera de utilizare de către AI. În timp ce părtinirea ar fi putut fi într-un colț strâns, acum are loc să se extindă. AI nu pare că acest lucru este „greșit” și doar extinde computațional ceva care pare să funcționeze.

Dacă asta face părul să stea pe cap, va trebui să te așezi pentru următoarea variantă.

Să presupunem că prejudecățile nu a existat de la început și că avem convingerile întemeiate că AI este complet lipsită de părtinire. Fie am avut noroc, fie probabil ne-am asigurat sistematic că nu există părtiniri nicăieri în date și niciuna nu a apărut prin potrivirea modelului de calcul. În ciuda acestui oftat de ușurare, AI-ului i se permite să se ajusteze în timpul utilizării. Ușa Pandorei este deschisă, iar AI optează să graviteze computațional către prejudecățile care se găsesc în orice lucru pe care îl face AI.

O nouă părtinire este înghițită în AI și nimeni nu este cu atât mai înțelept că s-a întâmplat. Da, am creat un monstru, un adevărat Frankenstein.

Cum poate fi prevenită sau cel puțin semnalată această apariție?

O abordare care câștigă teren constă în integrarea în IA a unei componente de culegere a eticii. AI este construit pentru a include elemente etice AI. Apoi, acele elemente urmăresc sau monitorizează restul AI în timp ce AI se adaptează în timp. Atunci când IA pare să fi depășit preceptele etice programate, AI-ul etic încearcă să le ajute la acele ajustări sau alertează dezvoltatorii că ceva a mers în neregulă.

Puteți încerca să programați această capacitate de supraveghere a IA etică și să sperați că va prevala în timp ce IA este în uz.

Un alt unghi oarecum controversat ar fi utilizarea Machine Learning și Deep Learning pentru a antrena aspectele AI etice în sistemul AI.

Spune ce?

Da, conceptul poate neortodox este că, în loc ca un programator uman să codifice direct un set de precepte de etică AI, AI este conceput pentru a încerca să le „învețe”. Amintiți-vă că am remarcat pe scurt că utilizarea ML/DL se bazează de obicei pe introducerea datelor în algoritmi și are loc o potrivire a modelului de calcul. Întrebarea de un milion de dolari este dacă putem folosi același mecanism pentru a pătrunde valori etice într-un sistem AI.

Presupun că ați putea compara acest lucru cu discuția mea de la deschidere despre modul în care oamenii devin conștienți de principiile etice, deși vă rog să nu antropomorfizați IA de astăzi ca fiind comparabilă cu gândirea umană (nu este, și voi repeta acest îndemn în scurt timp). AI poate fi programat „în mod înnăscut” cu precepte etice AI. Sau AI ar putea „învăța” precepte etice ale AI. Poți să le faci pe amândouă, desigur, ceea ce am tratat în altă parte, vezi linkul aici.

Luați un moment pentru a reflecta la conceptul aparent surprinzător conform căruia AI ar putea „învăța” etica și, probabil, să respecte comportamentele etice.

Acești cercetători folosesc un exemplu de sistem AI care calculează temperatura dorită într-o casă pentru a ilustra modul în care aceasta poate funcționa: „A „observat” mai întâi comportamentul oamenilor din diferite gospodării doar timp de o săptămână și a tras concluzii despre preferințele lor. Apoi a folosit un senzor de detectare a mișcării pentru a determina dacă cineva se afla acasă. Când casa era goală, termostatul inteligent a intrat într-un mod de economisire ridicată a energiei; când oamenii erau acasă, termostatul regla temperatura pentru a se potrivi preferințelor lor. Acest termostat îndeplinește în mod clar cele două cerințe ale unui bot etic, deși unul foarte simplu. Evaluează preferințele oamenilor și le impune asupra comenzilor sistemului de încălzire și răcire. Se poate întreba ce legătură are aceasta cu valorile morale sociale. Acest termostat permite persoanelor cu valori diferite să aibă setările de temperatură pe care le preferă. Locuitorii casei nu trebuie să resetați termostatul în fiecare zi când vin și pleacă. Acest robot etic simplu reduce, de asemenea, amprenta energetică totală a comunității” (conform lucrării de Amitai Etzioni și Oren Etzioni intitulată „AI Assisted Ethics” în volumul despre Etica și Tehnologia Informației).

Înainte de a săpa mai departe în răsturnările și întorsăturile de a avea AI care „învață” comportamentul etic, aș dori să spun ceva mai multe despre statutul AI.

AI poate consta din următoarele stări posibile:

1. Inteligență artificială simplă și veche nesimțită de astăzi

2. AI sensibil de calitate umană (nu avem asta încă)

3. Inteligență artificială sensibilă care este super-inteligentă (o întindere dincolo de numărul 2)

Mă voi concentra pe starea existentă, care este IA simplă și nesimțită. O mare parte din ceea ce ați putea citi despre IA etică acoperă uneori IA sensibilă și, prin urmare, este foarte speculativă. Spun că este speculativ pentru că nimeni nu poate prinde coada pe măgar a ceea ce va fi IA sensibilă. Chiar mai mult dincolo de tărâmul IA sensibilă de calitate umană se află IA super-inteligentă, mult năucită. Există o mulțime de povești SF și neclarități cu privire la modul în care acele arome ale inteligenței artificiale ar putea decide să înrobească omenirea sau poate doar să ne ștergă pe toți. Acesta este cunoscut drept riscul existențial al AI. Uneori, dilema este formulată și ca riscul catastrofal al IA.

Unii susțin că s-ar putea să fim în regulă atâta timp cât păstrăm IA la IA simplă și nesimțită pe care o avem astăzi. Să presupunem că nu putem ajunge la IA sensibilă. Imaginați-vă că, oricât de mult încercăm să creăm IA sensibilă, nu reușim să facem acest lucru. De asemenea, să presupunem, de dragul discuției, că IA sensibilă nu apare printr-un proces spontan misterios.

Nu suntem atunci în siguranță că acest AI de calibru mai mic, care este singurul tip imaginar posibil de AI, va fi folosit?

Nu chiar.

Aproape, aceleași probleme generale sunt probabil să apară. Nu sugerez că AI „se gândește” la felul în care vrea să ne distrugă. Nu, IA obișnuită, nesimțită, este plasată doar în poziții de putere care ne înghesuie în autodistrugere. De exemplu, am pus IA nesimțită în armele de distrugere în masă. Aceste arme autonome nu sunt capabile să gândească. În același timp, oamenii nu sunt ținuți pe deplin la curent. Drept urmare, AI, ca formă de automatizare autonomă, sfârșește prin a provoca din neatenție rezultate catastrofale, fie printr-o comandă umană de a face acest lucru, fie printr-o eroare sau o eroare, fie printr-o acțiune răutăcioasă implantată, fie prin autoajustări care duc problemele în jos. calea urata etc.

Aș susține că problema eticii AI există pentru toate cele trei stări stipulate de IA, și anume că avem probleme etice AI cu IA simplă și neconștientă și cu IA simțitoare care este fie doar la nivel uman, fie IA extinsă care ajunge. nivelul apreciat de superinteligență.

Având în vedere această declarație serioasă, putem dezbate cu siguranță amploarea și dificultatea asociate cu problemele etice la fiecare dintre nivelurile respective ale IA. Punctul de vedere obișnuit este că situația etică a AI este mai puțin de nedepășit la nivelul AI nesimțit, mai dură la nivelul AI egal cu oamenii simțitori și un adevărat zgârietor de cap în stadiul afacerilor AI super-inteligentă.

Cu cât IA devine mai bună, cu atât problema eticii AI devine mai gravă.

Poate că aceasta este o lege inviolabilă a naturii.

Revenind la concentrarea asupra IA de astăzi, încercarea de a face AI să „învețe” comportamente etice prin învățarea automată și învățarea profundă contemporane este plină de preocupări și probleme dificile. Să presupunem că AI nu reușește să culeagă preceptele etice dorite? Cum vom ști cu siguranță că a șovăit făcând asta? De asemenea, alte părți ale unui sistem AI vor suprascrie potențial constructele etice culese? Adăugați la aceasta că, dacă AI se adaptează din mers, ajustările ar putea subțire aspectele etice sau le-ar putea copleși din neatenție.

Pentru a înrăutăți lucrurile, „învățarea” ar putea duce la aterizarea AI pe comportamente cu adevărat lipsite de etică. În timp ce am crezut că facem ceea ce trebuie, îndemnând IA să fie etică, se dovedește că AI a alunecat în potrivirea modelelor pe aspectele lipsite de etică. Vorbim despre împușcarea cu piciorul nostru, s-ar putea întâmpla absolut.

În acest moment al acestei discuții, aș paria că sunteți dornic de câteva exemple suplimentare din lumea reală care ar putea evidenția modul în care AI „învățarea” eticii s-ar putea aplica AI de astăzi (altul decât deliciosul teaser al exemplului termostatului).

Mă bucur că ai întrebat.

Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre faptul că AI poate „învăța” preceptele AI etice și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele pe care AI le conduce în întregime pe cont propriu și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină cu autovehicule la nivelul 5, pe care nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și inoculare etică cu inteligență artificială

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și posibilitățile etice AI care implică afirmația uriașă că putem determina AI să „învețe” despre comportamentele etice de la sine.

Să folosim un exemplu simplu. O mașină autonomă bazată pe inteligență este în curs de desfășurare pe străzile din cartierul tău și pare să conducă în siguranță. La început, ai acordat o atenție deosebită de fiecare dată când ai reușit să arunci o privire asupra mașinii care se conduce singur. Vehiculul autonom s-a remarcat prin raftul său de senzori electronici care includeau camere video, unități radar, dispozitive LIDAR și altele asemenea. După multe săptămâni în care mașina cu conducere autonomă se plimbă prin comunitatea ta, acum abia dacă observi. În ceea ce vă privește, este doar o altă mașină pe drumurile publice deja aglomerate.

Ca să nu crezi că este imposibil sau neplauzibil să te familiarizezi cu a vedea mașini cu conducere autonomă, am scris frecvent despre modul în care locurile care fac obiectul probelor de mașini cu conducere autonomă s-au obișnuit treptat să vadă vehiculele armonioase, vezi analiza mea la acest link aici. Mulți dintre localnici s-au mutat în cele din urmă de la gura căscată uimitoare, la acum emitând un căscat expansiv de plictiseală pentru a asista la acele mașini care se conduc singure.

Probabil că motivul principal în acest moment pentru care ar putea observa vehiculele autonome este din cauza factorului de iritare și exasperare. Sistemele de conducere bazate pe inteligență artificială se asigură că mașinile respectă toate limitele de viteză și regulile de circulație. Pentru șoferii umani agitați în mașinile lor tradiționale conduse de oameni, uneori te enervezi când rămâi în spatele mașinilor cu autonomie bazate pe inteligență artificială care respectă strict legea.

Este ceva cu care ar putea fi nevoie să ne obișnuim cu toții, pe drept sau greșit.

Înapoi la povestea noastră. Într-o zi, să presupunem că o mașină cu conducere autonomă din orașul sau orașul tău circulă și se află într-o situație în care un pieton așteaptă să traverseze drumul. Să presupunem că pietonul nu are drept de trecere în sine. O mașină condusă de oameni ar putea trece pe lângă pieton și poate fi complet legală în acest sens. De asemenea, sistemul de conducere AI este legal capabil să treacă pe lângă pietonul care așteaptă.

Decizia dacă să se oprească și să lase pietonul să treacă peste stradă este complet discreționară pentru șofer, indiferent dacă este un șofer uman sau un sistem de conducere AI.

Sunt sigur că te-ai confruntat cu acest tip de situație de nenumărate ori. Poate te grăbești, așa că nu te oprești să lași să treacă pietonul. Cu altă ocazie, ai destul timp să ajungi la destinație, astfel optezi să te oprești și să-i lași persoanei care așteaptă să treacă peste stradă. Starea ta de spirit și circumstanțele particulare dictează ce vei alege să faci.

Nimic din acest scenariu nu pare neobișnuit sau supărător.

Înainte de a examina partea AI a lucrurilor, ați putea fi interesat să știți că acest aspect particular al discreției care permite pietonului să traverseze o stradă a fost studiat îndeaproape. Cercetătorii au identificat că uneori alegerea făcută de șofer poate depinde aparent de părtiniri rasiale sau de gen. Un șofer uman ar putea să mărească pietonul care așteaptă și să opteze pentru a-i permite persoanei să traverseze așa cum aparent se bazează pe părtinirile inerente ale șoferului. Dacă șoferul chiar își dă seama că o fac, este o chestiune de cercetare continuă. Vezi acoperirea mea la acest link aici.

Am pregătit scena pentru a explora ceea ce ar putea face un sistem de conducere AI în situația de trecere pentru pietoni.

Programarea convențională a AI ar putea presupune ca dezvoltatorii AI să decidă ca sistemul de conducere AI să se oprească întotdeauna și să lase pietonul să traverseze. Acesta ar părea a fi lucrul corect din punct de vedere etic sau civil de făcut. Mașina care se conduce singur se îndreaptă spre umanul care așteaptă care vrea să traverseze strada.

Îndrăznesc să spun, dacă ai fi pasager într-o mașină cu conducere autonomă și AI s-a oprit întotdeauna pentru toți pietonii discreționari, ai putea înnebuni. Călătoria ta rapidă la magazin poate dura de multe ori mai mult. Amintiți-vă, de asemenea, că nu ne referim la pietonii care au dreptul legal de devotat de a traversa, deoarece acele cazuri ar avea deja AI programat pentru a permite întotdeauna. Ne concentrăm doar pe circumstanțele discreționare.

Există și mai multe dezavantaje la această declarație de a opri mereu pentru a lăsa pietonii discreționari să traverseze strada.

Cei care produc și folosesc mașini autonome bazate pe inteligență artificială vor ca oamenii să circule în ele. Ideea este că, având mașini care se conduc singure, am putea reduce numărul de accidente de mașină anuale, care produc în prezent aproximativ 40,000 de decese anuale și 2.5 milioane de răniți numai în Statele Unite, vezi colecția mea de statistici la acest link aici. Pe lângă acest obiectiv societal venerat, producătorii de automobile și producătorii de tehnologie cu auto-conducere speră să facă și bani din creațiile lor AI, desigur.

Aduc în discuție acest lucru pentru că oamenii ar putea decide să nu circule în mașini care se conduc singure dacă sistemul de conducere AI face astfel de lucruri inutil ajung să întârzie călătoriile. Orice persoană obișnuită ar argumenta că, în schimb, alegând un șofer uman, călătoria ar putea fi mai rapidă și, prin urmare, selectarea unei mașini autonome AI pentru o călătorie ar putea fi plasată foarte jos pe lista alegerilor lor. Acest lucru ar însemna, la rândul său, că nu am avea reducerea dorită a accidentelor de mașină și, de asemenea, că producătorii ar putea considera că produsele lor sunt neprofitabile.

Având în vedere acest set de argumente, ați putea fi influențat să credeți că AI nu ar trebui să se oprească niciodată atunci când apare o instanță discreționară a unui pieton care dorește să traverseze strada. Doar programați sistemul de conducere AI să facă orice este strict legal. Dacă nu există o cerință legală de a lăsa un pieton să traverseze, atunci ghinion pentru acel pieton care așteaptă. Poate că persoana ar trebui să se îndrepte către un punct de trecere care să permită o bază legală pentru oprirea mașinii care se conduce singur.

Vă puteți imagina strigătul în acest sens?

Oamenii din orașul tău descoperă treptat că mașinile autonome cu inteligență artificială nu vor permite niciodată să traverseze un pieton discreționar. Aia al naibii de irascibil AI! Este ca și cum AI-ul își bate nasul spre oameni. Un prost manier de o piesă de automatizare deloc bună. Pentru a completa acest lucru, imaginați-vă că există circumstanțe documentate în care pietonii au nevoie cu disperare de a traversa și AI nu s-ar opri deloc.

Între timp, șoferii umani se opreau de bunăvoie pentru a-i lăsa pe acești oameni „disperați” să treacă în siguranță pe stradă.

Ca urmare a acestui scandal, mașinile autonome cu inteligență artificială nu mai sunt binevenite pe străzile și străzile din localitatea dvs. Autorizațiile care fuseseră eliberate de conducătorii orașului sunt revocate. Scoaterea brutelor nerecunoscătoare de pe drumurile noastre este zgomotul vocal.

Bine, se pare că suntem între o stâncă și un loc greu. AI nu ar trebui să lase întotdeauna pietonul discreționar să traverseze (nu vă opriți întotdeauna). AI nu ar trebui să împiedice întotdeauna trecerea unui pieton discreționar (nu deplasați întotdeauna pe lângă). Ce sa fac?

Răspunsul evident ar fi să programăm AI să acționeze într-o manieră discreționară.

Vă rog să luați în considerare ADM (luarea algoritmică a deciziilor) din care ar trebui să constea. Va încerca AI să detecteze natura pietonului și să folosească caracteristicile percepute ca bază pentru a decide dacă să oprească sau nu mașina cu conducere autonomă? Poate că cineva care arată mai în vârstă este modalitatea de a alege. Dar este în devenire discriminarea în funcție de vârstă? Și așa mai departe.

Poate că sistemul de conducere AI este programat să se oprească în timpul zilei și să nu se oprească niciodată în timpul nopții. Este posibil ca logica să fie că se presupune că este mai sigur pentru călăreții din mașina autonomă ca vehiculul autonom să se oprească în timpul zilei, dar nu la orele mai ascunse ale serii.

Poate că sună sensibil. O parte a problemei vor fi așteptările pietonilor. Iată ce vreau să spun. Pietonii văd mașinile care se conduc singure AI oprindu-se pentru traversări discreționare, care se întâmplă în timpul zilei. Pietonii nu știu ce criterii folosește AI pentru a decide să se oprească. Presupunerea unor pietoni este că AI-ul se va opri întotdeauna (ne-ai da seama că lumina zilei versus noaptea este adevăratul determinant). Drept urmare, acei pietoni care cred că mașina cu conducere autonomă se va opri întotdeauna vor lua o șansă și vor începe să traverseze atunci când sistemul de conducere AI nu urmărește deloc să se oprească (ceea ce, AI s-ar opri probabil dacă pietonul intră în stradă, deși acest lucru ar putea fi în pericol, iar fizica ar putea împiedica AI să oprească mașina cu conducere autonomă timp insuficient pentru a evita lovirea pietonului aparent „rătăcitor”).

Să presupunem că dezvoltatorii AI și firmele care pun împreună și pun în evidență mașinile cu conducere autonomă din orașul tău nu sunt siguri cum să pună AI-ul la curent în această chestiune.

Ei decid să „antreneze” AI cu privire la datele colectate din întreaga locație. Se pare că există o mulțime de camere montate în oraș care au surprins mersul și venirea mașinilor în tot orașul. Aceste date prezintă multe cazuri de pietoni care încearcă să traverseze strada într-o manieră discreționară. Toate datele sunt introduse într-un sistem de învățare automată și de învățare profundă pentru a obține ceea ce este considerat obișnuit în acea jurisdicție.

Antrenăm inteligența artificială să facă ceea ce demonstrează obiceiurile etice locale?

Cu alte cuvinte, dacă un anumit oraș ar avea o cultură locală mai degrabă de a se opri și a lăsa pietonii discreționari să treacă, așa cum o evidențiază acțiunile șoferului uman, ML/DL ar putea prelua din punct de vedere computațional acest model. AI ar fi apoi antrenat să facă la fel. La cealaltă extremă, dacă șoferii umani se opresc rar, AI ar putea obține acea „lecție” din analiza computațională a datelor. Inteligența artificială va face așa cum fac oamenii, într-un fel.

Afirmația este că comportamentele etice ale oamenilor sunt capturate în date și că AI va impregna aceleași precepte etice prin analiză computațională. Un etician ar descrie în general acest lucru ca pe o abordare comunitară a eticii. Valorile comune ale comunității se reflectă în eforturile comunității în general.

Aceasta ar putea părea o soluție dandy.

Din păcate, există o mulțime de capcane.

O problemă poate evidentă este că șoferii umani s-ar putea deja să exercite o anumită formă de părtinire în a alege să se oprească sau să nu se oprească (după cum am menționat mai devreme). AI va fi apoi un imitator al acestor părtiniri. Vrem să fie așa?

Luați în considerare o altă problemă. Să presupunem că șoferii umani nu acceptă cu ușurință modul în care funcționează mașinile autonome cu inteligență artificială. Doar pentru că șoferii umani au fost, să spunem, dispuși să oprească, acest lucru ar putea să nu fie la fel de presupus pentru mașinile care se conduc singure. S-ar putea ca șoferii umani să fie enervați de mașinile autonome cu inteligență artificială care se opresc în continuare pentru pietoni discreționari, chiar dacă același lucru se întâmplă cu mâinile șoferilor umani, dar asta nu pare să-i deranjeze pe șoferii umani.

Pe lângă faptul că este deranjant, puteți, de asemenea, să evocați posibilitatea ca șoferii umani să se întoarcă din neatenție cu mașini cu conducere autonomă. Dacă un șofer uman nu se aștepta ca mașina cu conducere autonomă să se oprească pentru un pieton și dacă mașina condusă de oameni se află direct în spatele mașinii care se conduce singur, poate apărea o nepotrivire dramatică a așteptărilor. Sistemul de conducere AI oprește mașina cu conducere autonomă. Șoferul uman nu a anticipat această acțiune. Șoferul uman se trântește în mașina care se conduce singur. Urmează răni și posibil decese.

Am subliniat intenționat șansele de vătămare umană.

Pietonul care traversează strada ar putea părea la o privire rapidă ca o întrebare banală. S-ar părea că nimeni nu poate fi rănit prin orice metodă pe care AI-ul alege să se oprească sau să nu se oprească. Gresit! Există șansa ca pietonul să fie trecut peste cap. Există șansa ca o mașină condusă de oameni să se lovească în mașina care se conduce singur. Șoferul și pasagerii mașinii conduse de oameni pot fi răniți. Călăreții din interiorul mașinii cu conducere autonomă pot fi răniți. Permutări suplimentare ale posibilelor vătămări umane sunt ușor de imaginat.

Concluzie

Vorbind despre vătămarea umană, vă voi oferi altceva pentru a vă face mințile să se răstoarne la această enigma etică a inteligenței artificiale.

O știre a relatat că un bărbat conducea o mașină într-o intersecție și avea undă verde pentru a face acest lucru. O altă mașină condusă de oameni a optat să treacă cu semaforul roșu al intersecției și ilegal și nesigur a intrat nestingherită în intersecție, amenințând că va lovi mașina aflată în procedură legală.

Șoferul le-a spus reporterilor că trebuie să aleagă între a primi lovitura sau ar putea să-și vireze mașina pentru a evita, sperăm, să fie lovit, dar erau pietoni în apropiere, iar acțiunea de virare le-ar putea pune în pericol. Ce ai face? Puteți alege să fiți lovit de această mașină care se profilează și poate să trăiți pentru a spune povestea. Sau puteți încerca să evitați să fiți lovit, dar între timp este posibil să alergați pe pietoni nevinovați.

O mare parte din conducerea noastră zilnică are de luat acele tipuri de decizii enorme și instantanee din punct de vedere etic. Am discutat pe larg acest lucru, împreună cu relația dintre aceste decizii de conducere pe viață sau pe moarte cu celebra sau unii spun infama Problemă a căruciorului, vezi elaborarea mea la linkul aici.

Înlocuiți șoferul uman în acest scenariu cu un sistem de conducere AI.

Ce vrei să facă AI?

Aceasta este o întrebare perplexă.

O abordare este de a programa AI pentru a face cu strident acțiuni de conducere pur directă, astfel încât nici măcar să ia în considerare computațional alte opțiuni, cum ar fi abaterea de la probabilul accident. Aș anticipa că călătorii cu mașini care se conduc singure vor fi supărați să afle că AI nu a fost conceput pentru a face altceva decât să ia lovitura. Vă puteți aștepta la procese și la o zarvă.

O altă abordare ar fi încercarea de a programa AI pentru a lua în considerare diferitele posibilități. Cine ajunge să stabilească ADM-ul care decide în ce direcție ar merge sistemul de conducere AI? S-ar părea că permiterea dezvoltatorilor AI să ia singuri decizii atât de importante este plină de preocupări abundente.

Ai putea încerca să lași AI să „învețe” din datele despre conducerea umană colectate de situațiile de trafic de zi cu zi. Acest lucru este asemănător cu dilema trecerii pentru pietoni și cu ideea sugerată mai devreme de a folosi date asamblate pentru ca AI să culeagă orice păreau a fi obiceiurile etice locale. Există o mulțime de avertismente în acest sens, cum ar fi dacă modelele descoperite ML/DL sunt adecvate sau nu etc.

De asemenea, prevenisem că există șansa ca AI să culeagă un comportament poate lipsit de etică, în funcție de obiceiurile etice implicate. De exemplu, să presupunem că AI a aterizat cumva pe un model de calcul pentru a ținti mereu spre pietoni ori de câte ori o altă mașină amenința să lovească mașina care se conduce singur.

Uau, ai grijă de pietoni, vei fi ținte gata făcute.

E timpul să închei discuția deocamdată și să faci asta cu un gând final încurajator.

S-ar putea să știți că Isaac Asimov și-a propus „Trei legi ale roboticii” în 1950 și suntem încă îndrăgostiți până astăzi de acele reguli proclamate. Deși regulile par să fie ușor de respectat, cum ar fi că un sistem AI sau un robot nu trebuie să dăuneze unui om și nici să nu permită unui om să facă rău, există o mulțime de nuanțe cruciale care fac acest lucru complex și uneori de nesuportat, vezi analiza mea la linkul aici.

În orice caz, iată încă ceva pentru care Asimov este cunoscut și pentru care, deși mai puțin: „Nu lăsa niciodată simțul tău moral să te împiedice să faci ceea ce este corect”.

Pentru IA etică pe care sperăm să o creăm cu toții, trebuie să ținem cont de faptul că etica AI impregnată ar putea să nu fie ceea ce am anticipat și că, într-un fel, IA va trebui să facă tot ce este corect. Asimov a spus-o bine. Cu mult timp înainte, Aristotel părea să aibă sentimente destul de asemănătoare.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- carcasa-cu-ai-în-mașini-autonome-cu-auto-conducere/