Lecții despre etica IA și sistemele autonome culese din acel zbor recent al Alaska Airlines, în care pilotul și copilotul nu au fost de acord înainte de a decolare și au ales brusc să se întoarcă cu taxiul înapoi la terminal și să meargă pe căi separate.

Companiile aeriene au apărut destul de mult în știri în ultima vreme.

Suntem în criza de vară a zborurilor. Pasagerii obosiți și frustrați se confruntă cu tot felul de întreruperi de zbor și contorsionări în programarea companiilor aeriene. Zborurile sunt anulate în mod neașteptat. Zborurile sunt întârziate. Pasagerii fumează. Au existat, din nefericire, multe cazuri de pasageri care au permis să izbucnească aceste neplăceri și am văzut îngrozitor de prea multe videoclipuri virale cu confruntări cap-la-cap și uneori cu pumni.

Mai rar aflăm despre disputele dintre pilot și copilot care ar putea apărea în cabină.

Este o surpriză.

Într-adevăr, suntem în mod natural surprinși să credem că un pilot și un copilot ar avea orice aparență de dezacord serios în orice etapă a unui zbor. Dacă dezacordul se referă la ce marcă de cafea este cea mai bună, presupunem că acest lucru nu ar interveni în efortul de muncă care implică zborul cu avionul. Cei doi pur și simplu ar ridica din umeri de la lipsa lor de ochi în ochi pe un subiect aparent irelevant pentru zbor. Comportamentul lor profesional și pregătirea de lungă durată a piloților ar fi început și își vor concentra atenția înapoi pe detaliile zborului.

Luați în considerare totuși când a dezacord profesional intervine.

O să vă împărtășesc pe scurt o știre publicată pe scară largă despre un caz recent care s-a întâmplat în timpul unui zbor în SUA, legat de un pretins dezacord profesional în cabina de pilotaj.

Acest lucru este în principal citat aici, astfel încât să putem explora un subiect înrudit care este de mare importanță pentru apariția Inteligenței Artificiale (AI). Vedeți, poate exista o formă de dezacord profesional nu doar între oameni într-un dezacord de la om la om, dar se poate întâmpla și ceva similar în mijlocul adoptării AI și, prin urmare, a dezacordurilor profesionale dintre oameni și AI care rezultă. . Apar tot felul de considerente de etică AI. Pentru acoperirea mea extinsă și în curs de desfășurare a problemelor de etică AI și AI etică, consultați linkul aici și linkul aici, doar pentru a numi doar câteva.

Pregătește-te pentru o poveste fascinantă.

După cum s-a raportat recent în știri, se pare că un caz de „dezacord profesional” a apărut în timpul unui zbor Alaska Airline care mergea de la Washington la San Francisco. Potrivit știrilor, zborul se îndepărtase de poartă și aștepta pe asfalt permisiunea de a rula și de a lua zborul. O furtună era în desfășurare și a dus la o întârziere a zborului de mai bine de o oră și jumătate. Se pare că avionul s-a întors în cele din urmă și s-a îndreptat înapoi la poartă, ceea ce unii dintre pasageri ar fi presupus în mod normal că este pur și simplu o măsură de siguranță legată de furtună.

Conform diverselor tweet-uri, se pare că pilotul și copilotul au avut un fel de ceartă în afara vederii în timpul petrecut acolo în cabina de pilotaj și au ajuns cumva la concluzia că cea mai prudentă abordare ar fi să curățați zborul și să se întoarcă la terminal. . Tweeturile sugerau că căpitanul și prim-ofițerul aparent nu s-au putut înțelege unul cu celălalt. Compania aeriană a emis ulterior o declarație conform căreia situația este nefericită (situația nu a fost explicită sau explicată în sine), cei doi ofițeri de zbor au fost evaluați de conducere și considerați apți să zboare, echipajele au fost schimbate și zborul a ajuns să aibă loc. iar mai târziu a ajuns la San Francisco.

Într-un sens, dacă, de fapt, pilotul și copilotul au avut un dezacord profesional, cum ar fi dacă avionul era pregătit corespunzător pentru zbor sau dacă riscul de a zbura printr-o furtună se afla într-un interval de siguranță adecvat, acei pasageri ar trebui să fie ușurați și recunoscător că avionul a fost returnat la poartă. Mai bine să fii în siguranță decât să-ți pară rău. A avea o întârziere suplimentară merită presupusa reducere a riscurilor asociate cu o călătorie de zbor considerată accidentată sau adversă.

Unii oameni ar putea fi surprinși că ar putea apărea un astfel de dezacord profesional.

Avem poate o impresie falsă că tot ce se întâmplă în cockpit este complet precis și bine scris. Se pare că orice formă de discreție umană a fost ștearsă din proces. Pe baza unor hărți exacte și bine calculate, un zbor fie este bine să continue, fie nu este. Nu poate exista niciun dezacord atunci când se crede că întregul kit și caboodle se bazează pe un calcul irefutat de fapte și cifre.

Acesta nu este adevărul complet al problemei. Sigur, există o mulțime de protocoale și tot felul de verificări și echilibrări, dar acest lucru nu stoarce toată raza de judecată umană. Piloții și copiloții încă exercită raționamentul uman. Din fericire, această judecată umană este perfecţionată de ani de zbor. Şansele sunt că un pilot şi un copilot dintr-un avion comercial de pasageri au o experienţă anterioară de zbor şi să-şi folosească cu uşurinţă mulţi ani de raţionament aprofundat şi judecată asociate cu faptul că se află la comenzile de zbor.

Având în vedere rolul notabil al judecății umane, am putea anticipa în mod logic că un pilot și un copilot vor avea uneori dezacorduri profesionale. De cele mai multe ori, probabil că există foarte puține astfel de dezacorduri. Pilotul și copilotul pentru zborurile zilnice sunt susceptibile să fie bine aliniate la preponderența timpului. Doar atunci când un scenariu de zbor ar putea depăși limitele convenționale ne-am aștepta să apară o frecare mai tensionată.

Dacă există o diferență puternică de opinie între cei doi, aș îndrăzni să spun că vrem ca ei să o facă.

Imaginați-vă o situație în care pilotul dorește strident să continue, dar copilotul percepe că riscurile sunt prea mari. Doar ca copilotul să se încline în fața pilotului ar părea de nedorit. Copilotul este un control și echilibru pentru ceea ce s-ar putea gândi să facă un pilot. Pentru cei care doresc ca un copilot să tacă și să acționeze fără minte la orice decretă pilotul, ei bine, asta nu este o mare asigurare. Un copilot nu este pur și simplu un „pilot” de rezervă care intră în imagine doar atunci când pilotul este complet incapabil. Aceasta este o înțelegere greșită a valorii de a avea un pilot și un copilot în cabină.

Există un alt unghi în acest sens.

Luați în considerare cazul unui pilot care nu crede că un zbor ar trebui să continue și, între timp, copilotul este furiș să se ridice în aer. Ce atunci? Prin ierarhia așteptată, pilotul ar trebui să prevaleze în mod convențional asupra copilotului. Rolul desemnat de a fi responsabilul principal face ca pilotul să fie mai mare dintre ceea ce altfel este oarecum egal. În mod normal, pilotul are mai mult timp de zbor general decât copilotul și, prin urmare, copilotul ar trebui ierarhic să amâne dorințele pilotului (când este în rațiune).

În orice caz, cred că putem fi cu toții de acord că a opta pentru a nu zbura este o alegere cu siguranță mai puțin riscantă decât a decide să zbori. Odată ce avionul este în aer, nivelurile de risc devin enorme în comparație cu situația pe orice teren stabil obișnuit. Un zbor comercial obișnuit care pur și simplu rulează înapoi la terminal fără să fi intrat în aer ar fi o soluție destul de amiabilă la orice dezbatere aprinsă aprinsă despre plecarea în zbor.

Să schimbăm vitezele și să folosim această știre îndrăzneață într-un scop cu totul diferit, dar care poate fi identificat.

Avem treptat printre noi o prevalență a sistemelor autonome bazate pe inteligență artificială. Uneori, AI conduce spectacolul, parcă. AI face totul de la A la Z și am putea interpreta acest lucru ca AI care este complet autonom sau aproape. În alte cazuri, putem avea AI care interacționează cu și într-o oarecare măsură este programată să se bazeze pe un om în buclă.

Aș dori să mă concentrez pe problema unui sistem autonom sau semi-autonom bazat pe inteligență artificială, care de la început are un om în buclă. AI și umanul sunt împinse în mod intenționat împreună și ar trebui să lucreze în tandem unul cu celălalt. Ei sunt cohorte în îndeplinirea unei anumite sarcini la îndemână. Numai AI nu ar trebui să acționeze asupra sarcinii. AI trebuie să interacționeze cu omul desemnat în buclă.

Aduc în discuție această caracterizare pentru a face diferența de situațiile în care human-in-the-loop este considerată o fațetă opțională. În esență, AI-ului i se dă frâu liber. Dacă AI optează să folosească umanul, așa să fie. Nu există nicio cerință ca AI să atingă baza sau să lucreze mână în mână cu omul desemnat. Analizele pe care urmează să le relatez sunt cu siguranță pertinente pentru acest tip de facultativ aranjament de interacțiune, dar nu este ceea ce mă refer în mod specific în această discuție specială.

Bine, deci avem un fel de sarcină la care un om și un AI vor lucra împreună, inseparabil unul de celălalt. Într-un sens abstract, avem un om așezat pe un scaun și un sistem AI așezat pe celălalt scaun însoțitor. Spun asta obraznic pentru că nu limităm această discuție la un robot, de exemplu, care ar putea să stea într-un loc. Fac aluzie metaforică la ideea că IA participă undeva la sarcină și la fel și umanul. Din punct de vedere fizic, locația lor nu este deosebit de vitală pentru discuție.

Este posibil să nu fiți sigur când ar putea apărea o astfel de circumstanță.

Easy-peasy.

Voi discuta, mai târziu, despre apariția vehiculelor autonome și a mașinilor autonome. La anumite niveluri de autonomie, AI și umanul ar trebui să lucreze împreună. AI ar putea să conducă mașina și să solicite omului să preia comenzile de conducere. Omul ar putea conduce mașina și să activeze AI pentru a prelua controalele. Ei fac pe rând la comenzile de conducere.

În plus, unele modele au ca AI să fie activ în mod esențial tot timpul (sau, cu excepția cazului în care este dezactivat), astfel încât AI să fie întotdeauna la îndemână. Mai mult, AI ar putea interveni direct, chiar și fără să ceară umanul, în funcție de situația care se desfășoară. Să presupunem, de exemplu, că omul pare să fi adormit la volan. Deoarece omul aparent nu poate activa AI (pentru că persoana doarme), AI ar putea fi programat să preia controalele de la om.

Unele modele aduc inteligența artificială și oamenii într-o abordare dublă de conducere. AI conduce și omul conduce. Sau, dacă preferați, omul conduce și AI conduce tot. Fiecare conduce vehiculul. Asamăn acest lucru cu acele mașini special echipate pe care poate le foloseai când urmai cursurile șoferilor și erau două seturi de comenzi de conducere în vehicul, unul pentru șoferul student și unul pentru instructorul auto.

Acesta este doar un exemplu de cadru în care AI și oamenii ar putea lucra împreună la o sarcină. Tot felul de posibilități există. Alte tipuri de vehicule autonome ar putea fi concepute în mod similar, cum ar fi avioane, drone, submersibile, nave de suprafață, trenuri și așa mai departe. Nu trebuie să luăm în considerare doar setările pentru vehicule și transport. Imaginează-ți domeniul medical și operațiile care sunt efectuate în comun de un medic și un sistem AI. Lista este nesfârșită.

Aproape că îmi vine să mă refer la gluma clasică zbuciumată despre un om și o inteligență artificială care intră împreună într-un bar. Este destul de un râs pentru cei care iubesc AI.

Serios, să revenim la concentrarea unui om și a unui sistem AI care lucrează împreună la o anumită sarcină. În primul rând, vreau să evit antropomorfizarea IA, lucru pe care îl voi sublinia pe tot parcursul. AI nu este sensibil. Vă rugăm să țineți cont de asta.

Iată ceva la care să chibzuiască: Un om desemnat în buclă va fi întotdeauna de acord total cu o IA în echipă?

Pentru orice sarcină complexă, s-ar părea puțin probabil ca omul și IA să fie în întregime și întotdeauna pe deplin în bloc. Omul poate, în unele ocazii, să nu fie de acord cu AI. Putem duce această ipoteză până la bancă.

Aș vrea să luați în considerare și această posibilitate, poate surprinzătoare: Va fi întotdeauna IA în total acord cu un om desemnat în buclă?

Din nou, pentru orice sarcină complexă, ar părea destul de de imaginat că AI nu va fi de acord cu oamenii în unele ocazii. Dacă înclinați deja spre ideea că AI trebuie să greșească întotdeauna, în timp ce oamenii trebuie să aibă întotdeauna dreptate, ar fi înțelept să regândiți această concluzie pripită. Imaginează-ți o mașină care are un om și AI care conduc împreună vehiculul semiautonom. Omul se îndreaptă spre un zid de cărămidă. De ce? Nu știm, poate că omul este în stare de ebrietate sau a adormit, dar știm că a se ciocni de un zid de cărămidă nu este o idee bună, toate celelalte fiind egale. AI ar putea detecta calamitatea viitoare și ar putea încerca să se îndepărteze de bariera iminentă.

În total, vom avea posibilitatea distinctă ca IA și umanul să nu fie de acord unul cu celălalt. Celălalt mod de a spune același lucru este că oamenii și AI sunt în dezacord unul cu celălalt. Rețineți că nu vreau ca secvențierea AI-și-uman versus uman-și-AI să sugereze ceva despre direcția sau plauzibilitatea dezacordului.

Cei doi lucrători, unul uman și unul care este AI, nu sunt de acord unul cu celălalt.

Am putea declara în prealabil că ori de câte ori apare un dezacord între o anumită IA și un anumit om, proclamăm în prealabil că umanul prevalează asupra AI. Acestea fiind spuse, exemplul meu ilustrativ despre mașina care se îndreaptă într-un zid de cărămidă ar părea să ne descurajeze că omul va avea întotdeauna dreptate.

Am putea, în schimb, să optăm pentru a declara în avans că ori de câte ori apare un dezacord, vom fi stabilit în prealabil că AI are dreptate și umanul greșit. Nici aceasta nu este o prevedere generalizabilă în mod sensibil. Imaginați-vă o mașină în care AI are o eroare sau o eroare software încorporată, iar AI încearcă să conducă vehiculul de pe șosea și într-un șanț. Presupunând că toate celelalte sunt egale, omul ar trebui să poată depăși această acțiune de conducere AI și să împiedice vehiculul să aterizeze în rigolă.

Să facem un rezumat rapid al acestui lucru:

  • Va fi întotdeauna un om în buclă în total acord cu AI? Răspuns: Nu.
  • Va fi AI întotdeauna în total acord cu un om-în-buclă? Răspuns: Nu.
  • Un om-în-buclă va avea întotdeauna dreptate în comparație cu AI? Răspuns: Nu neaparat.
  • Va avea AI întotdeauna dreptate în comparație cu umanul în buclă? Răspuns: Nu neapărat.

Cu siguranță puteți configura AI pentru a fi considerat în mod implicit parte „greșită” sau mai slabă și, prin urmare, vă lăsați întotdeauna în fața umanului ori de câte ori apare un dezacord. De asemenea, puteți configura IA să presupună că AI este considerată „corectă” ori de câte ori un om este în dezacord cu AI. Vreau să clarific că putem face asta în mod programatic dacă dorim să facem acest lucru. Totuși, susțin că, în general, acest lucru nu va fi întotdeauna cazul. Există, cu siguranță, setări în care nu știm dinainte dacă AI-ul are „drept” sau omul are „drept” în ceea ce privește optarea pentru unul sau celălalt pentru un dezacord legat de o anumită sarcină.

V-am condus la o întrebare foarte importantă și foarte complicată.

Ce ar trebui să facem atunci când apare un dezacord profesional între om în buclă și AI (sau, în mod echivalent, putem exprima acest lucru ca fiind între AI și om-in-the-loop)?

Nu încerca să ocoliți întrebarea.

Unii ar putea argumenta că acest lucru nu s-ar întâmpla niciodată, dar așa cum am expus în exemplul meu despre mașină, cu siguranță s-ar putea întâmpla. Unii ar putea argumenta că un om este în mod evident superior și trebuie să fie câștigătorul oricărui dezacord. Exemplul meu de mașină și zidul de cărămidă îl doboară. Există susținători ai AI care ar putea insista că AI trebuie să fie câștigătorul, din cauza depășirii în mod aparent a emoțiilor umane și a gândirii nebunești de către acești oameni la întâmplare cu gândire neclară. Încă o dată, celălalt exemplu al meu care implică mașina care se îndreaptă în șanț subminează această afirmație.

În lumea reală, AI și oamenii vor fi în dezacord, chiar și atunci când cei doi sunt aduși intenționat într-o situație de echipă pentru a îndeplini o sarcină întreprinsă în comun. Se va intampla. Nu putem pune capul în nisip și să ne prefacem că nu se va întâmpla.

Am văzut că oamenii care pilotau avionul au ajuns, aparent, într-un dezacord. Din fericire, au fost de acord să nu fie de acord, așa se pare. Au adus avionul înapoi la terminal. Au găsit un mijloc de a face față dezacordului. Rezolvarea dezacordului lor a funcționat bine, în comparație cu dacă probabil că s-ar fi lovit de pumni în carlingă sau ar fi zburat în aer și au continuat să fie combativi unul cu celălalt. Acesta este un scenariu dureros care este de nesuportat și putem fi recunoscători că nu a avut loc.

Permiteți-mi să vă ofer lista cu diferitele moduri în care dezacordurile între AI și uman în buclă (sau, uman în buclă și AI) ar putea fi rezolvate:

  • AI și oamenii în echipă rezolvă lucrurile (pe cale amiabilă sau nu)
  • Omul prevalează în fața AI, în mod implicit
  • AI prevalează în fața omului, implicit
  • O altă rezoluție fixă ​​predeterminată prevalează, în mod implicit
  • O persoană terță parte este conectată în buclă și indicația lor prevalează asupra părților
  • AI terță parte este conectată în buclă și indicația sa prevalează asupra părților
  • Omul de la o terță parte înlocuiește umanul existent, lucrurile merg din nou
  • AI terță parte înlocuiește IA existentă, lucrurile merg din nou
  • Omul de la o terță parte înlocuiește IA existentă, lucrurile merg din nou (acum de la om la om)
  • AI terță parte înlocuiește umanul existent, lucrurile merg din nou (acum AI-la-AI)
  • Altele

Acestea sunt foarte demne de a fi despachetate.

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza modului de a face față AI și dezacordurilor umane, haideți să expunem câteva elemente fundamentale suplimentare pe subiecte profund esențiale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a afirmat mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să revenim la concentrarea noastră asupra dezacordurilor dintre AI și un om.

Am indicat mai devreme că acestea sunt câteva dintre strategiile de rezolvare a dezacordurilor:

  • AI și oamenii în echipă rezolvă lucrurile (pe cale amiabilă sau nu)
  • Omul prevalează în fața AI, în mod implicit
  • AI prevalează în fața omului, implicit
  • O altă rezoluție fixă ​​predeterminată prevalează, în mod implicit
  • O persoană terță parte este conectată în buclă și indicația lor prevalează asupra părților
  • AI terță parte este conectată în buclă și indicația sa prevalează asupra părților
  • Omul de la o terță parte înlocuiește umanul existent, lucrurile merg din nou
  • AI terță parte înlocuiește IA existentă, lucrurile merg din nou
  • Omul de la o terță parte înlocuiește IA existentă, lucrurile merg din nou (acum de la om la om)
  • AI terță parte înlocuiește umanul existent, lucrurile merg din nou (acum AI-la-AI)
  • Altele

E timpul să le despachetezi.

În primul rând, luați în considerare că totul este despre asta profesional dezacorduri.

Un dezacord profesional este definit în mod vag ca un dezacord asociat cu o sarcină legată de muncă.

De exemplu, un dezacord care apare între un pilot și un copilot cu privire la posibilitatea de a continua cu un zbor care se confruntă cu o furtună ar putea fi etichetat în mod rezonabil ca un dezacord profesional. În schimb, un dezacord vehement asupra mărcii de cafea pentru care o susține pilotul față de marca pe care o preferă copilotul este ușor clasificat ca un dezacord non-profesional în acest context particular.

Desigur, dacă un dezacord non-profesional se transformă într-un dezacord profesional, am putea fi în cele din urmă interesați de dezacordul non-profesional ca sursă presupusă sau scânteie pentru cel profesional. Imaginați-vă că un pilot și un copilot se ceartă cu amărăciune despre ce marcă de cafea este cea mai bună, care apoi, din păcate, se revarsă în preocupări specifice zborului (joc de cuvinte!), cum ar fi dacă să decoleze sau nu.

În al doilea rând, trebuie să ținem cont de amploarea dezacordului profesional.

Poate că pilotul și copilotul sau în dezacord ușor cu privire la continuarea zborului. Ei nu sunt în conflict și se gândesc doar la avantajele și dezavantajele decolare. Acesta nu este calibrul sau amploarea unui dezacord profesional pe care îl luăm în considerare în mod obișnuit aici. Chestia este că s-ar putea ca dezacordul profesional să fie tranzitoriu și ambele părți să ajungă la o rezoluție cordial sau cel puțin în timp util. În general, punctul central al dezacordurilor profesionale în cadrul domeniului de aplicare sunt cele care sunt aparent insolubile, iar cele două părți rămân constant în dezacord.

În al treilea rând, de obicei, trebuie să existe ceva serios pe linie pentru ca aceste linii directoare să intre în joc.

Alegerea de a zbura sau de a nu zbura este o decizie categoric pe viață sau pe moarte, dacă zborul este în pericol din cauza unei furtuni sau avionul este considerat că nu este pe deplin pregătit pentru o astfel de călătorie. Aceasta este o afacere serioasă. Putem aplica în continuare liniile directoare la dezacordurile profesionale mai puțin impactante, deși ar putea fi mai deranjant decât merită.

Bine, considerațiile noastre sunt următoarele:

  • Dezacordul este mai degrabă orientat profesional decât pe ceva neprofesional
  • Dezacordul este de natură susținută și nu este doar tranzitorie sau ușor de rezolvat în alt mod
  • Dezacordul prevestește consecințe grave și are de obicei un rezultat cu impact
  • Partidele sunt în conflict și par insolubile

Să aruncăm acum o privire mai atentă la fiecare dintre îndrumările sau abordările mele sugerate cu privire la modul de a face față unor astfel de dezacorduri profesionale.

AI și oamenii în echipă rezolvă lucrurile (pe cale amiabilă sau nu)

Încep lista cu posibilitatea simplă ca AI și omul-în-buclă să poată rezolva dezacordul profesional dintre ei. Se pare că poate exemplul celor doi oameni, pilotul și copilotul ilustrează acest tip de circumstanță. Au hotărât cumva să se întoarcă la terminal și să meargă pe drumuri separate. S-ar putea ca un sistem AI și un om să poată găsi o abordare de rezolvare care este, în general, satisfăcătoare pentru ambele părți, iar problema să fie astfel încheiată satisfăcător.

Omul prevalează în fața AI, în mod implicit

La configurarea AI, s-ar putea să programăm o regulă care spune că om-in-the-loop va prevala întotdeauna ori de câte ori apare un dezacord profesional. Aceasta ar fi implicit codificată explicit. Am putea permite, de asemenea, o formă de depășire, pentru orice eventualitate, deși regula permanentă va fi că umanul prevalează.

AI prevalează în fața omului, implicit

Când se instalează IA, am putea programa o regulă care spune că IA va prevala întotdeauna asupra umanului în buclă ori de câte ori apare un dezacord profesional. Aceasta este implicit codificată explicit. Am putea permite, de asemenea, o formă de depășire, pentru orice eventualitate, deși regula permanentă va fi că AI prevalează.

O altă rezoluție fixă ​​predeterminată prevalează, în mod implicit

La configurarea AI, s-ar putea să programăm o regulă care spune că o altă rezoluție fixă ​​predeterminată va prevala ori de câte ori apare un dezacord profesional cu human-in-the-loop. Human-in-the-loop nu prevalează în mod implicit. AI nu predomină implicit. Există o altă rezoluție preidentificată. De exemplu, poate că există aruncarea unei monede care va fi folosită pentru a decide care dintre cele două părți este considerată calea corectă de urmat. Acest lucru ar părea, evident, destul de arbitrar; prin urmare, un alt exemplu de abordare ar fi ca o regulă specializată să fie introdusă, care calculează o valoare pe baza intrărilor celor două părți și ajunge la un rezultat ca un departajare.

O persoană terță parte este conectată în buclă și indicația lor prevalează asupra părților

La un dezacord profesional, o regulă ar putea fi că o terță parte care este un om este invocată și conectată în cadru pentru a lua o decizie cu privire la rezolvarea dezacordului. AI este programat să amâne orice hotărăște omul terță parte. Omul care se află deja în „human-in-the-loop” a fost instruit în prealabil că, dacă apare o astfel de situație, și ei trebuie să se apropie de o terță parte umană. În afară de aceasta, probabil că puteți anticipa că omul-în-buclă ar putea avea neliniște în legătură cu accesul la orice decide omul terță parte dacă decizia nu este de acord cu postura omului-în-buclă.

AI terță parte este conectată în buclă și indicația sa prevalează asupra părților

În cazul unui dezacord profesional, o regulă ar putea fi că o terță parte care este un sistem AI diferit este invocată și conectată în setare pentru a lua o decizie cu privire la rezolvarea dezacordului. AI-ul original este programat să amâne orice hotărăște AI-ul terță parte. Omul care se află deja în bucla umană a fost instruit în prealabil că, dacă apare o astfel de situație, și ei trebuie să se apropie de IA terță parte. În afară de aceasta, probabil că puteți anticipa că omul-în-buclă ar putea avea neliniște în legătură cu accesul la orice decide AI-ul terță parte dacă decizia nu este de acord cu postura omului-în-buclă.

Omul de la o terță parte înlocuiește umanul existent, lucrurile merg din nou

La un dezacord profesional, om-in-the-loop este înlocuit cu un terț care este un om și care devine de acum înainte om-in-the-loop. Omul care a fost omul inițial în buclă pentru sarcină nu mai este considerat parte a sarcinii în cauză. Este un aspect deschis cu privire la ceea ce se întâmplă altfel cu human-in-the-loop acum înlocuit, dar spunem că cu siguranță nu mai au niciun rol în curs de desfășurare în sarcina de lucru.

AI terță parte înlocuiește IA existentă, lucrurile merg din nou

La un dezacord profesional, AI este înlocuit cu un AI terță parte și acesta devine AI utilizat de acum înainte pentru sarcina de lucru în cauză. AI care a fost folosit inițial pentru sarcină nu mai este considerată parte a sarcinii în cauză. Este un aspect deschis cu privire la ceea ce se întâmplă altfel cu AI înlocuită acum, dar spunem că cu siguranță AI nu mai are niciun rol în curs de desfășurare în sarcina de lucru.

Omul de la o terță parte înlocuiește IA existentă, lucrurile merg din nou (acum de la om la om)

La un dezacord profesional, AI este înlocuit de un om terță parte pentru care acea persoană devine acum partea considerată în echipă care va fi folosită pentru sarcina de lucru în cauză. AI care a fost utilizat inițial pentru sarcină nu mai este considerată parte a sarcinii în cauză. Este un aspect deschis cu privire la ceea ce se întâmplă altfel cu AI înlocuită acum, dar spunem că cu siguranță AI nu mai are niciun rol în curs de desfășurare în sarcina de lucru. Pe scurt, aceasta devine acum o sarcină realizată de la om la om de două părți.

AI terță parte înlocuiește umanul existent, lucrurile merg din nou (acum AI-la-AI)

La un dezacord profesional, human-in-the-loop este înlocuit cu un AI terță parte, iar acest AI devine de acum înainte completarea pentru human-in-the-loop precedent. Omul care a fost omul inițial în buclă pentru sarcină nu mai este considerat parte a sarcinii în cauză. Este un aspect deschis cu privire la ceea ce se întâmplă altfel cu human-in-the-loop acum înlocuit, dar spunem că cu siguranță nu mai au niciun rol în curs de desfășurare în sarcina de lucru. Pe scurt, aceasta devine acum un AI-la-AI cu două părți pentru a îndeplini sarcina.

Altele

Alte variante pot fi concepute pentru a face față unui dezacord profesional, dar am acoperit aici câteva dintre cheile de boltă.

Cum să decidem care dintre aceste abordări va fi cea potrivită pentru o anumită situație?

O mare varietate de probleme intervin în efectuarea unei astfel de alegeri. Există considerente tehnologice. Există considerente de afaceri. Există considerații legale și etice.

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial. Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vitală pentru producerea AI adecvată, inclusiv (poate surprinzător sau ironic) evaluarea modului în care etica AI este adoptată de companii.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. De fapt, ei avertizează că, dacă vom pune în aplicare unele dintre aceste legi AI, vom ucide gâsca de aur limitând progresele AI care oferă avantaje societale imense.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre rezoluțiile dezacordurilor dintre inteligență artificială și oameni și, dacă da, ce arată acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini care se conduc singure și dezacordul AI-versus-uman

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Pentru vehiculele complet autonome, s-ar putea să nu existe nicio șansă de un dezacord profesional între un om și AI din cauza posibilității că nu există niciun om în buclă pentru început. Aspirația pentru mulți dintre producătorii de mașini autonomi de astăzi este de a elimina complet șoferul uman din sarcina de a conduce. Vehiculul nici măcar nu va conține comenzi de conducere accesibile oamenilor. În acest caz, un șofer uman, dacă este prezent, nu va putea participa la sarcina de conducere, deoarece nu are acces la comenzile de conducere.

Pentru unele vehicule complet autonome, unele modele permit încă unui om să fie în circuit, deși omul nu trebuie să fie disponibil sau să participe deloc la procesul de conducere. Astfel, un om poate participa la conducere, dacă persoana dorește să facă acest lucru. Cu toate acestea, în niciun moment AI nu se bazează pe om pentru a îndeplini oricare dintre sarcinile de conducere.

În cazul vehiculelor semi-autonome, există o relație mână în mână între șoferul uman și AI. Șoferul uman poate prelua în întregime controalele de conducere și, în esență, poate opri AI să participe la conducere. Dacă șoferul uman dorește să reintroducă AI în rolul de conducător, o poate face, deși, uneori, acest lucru îl obligă pe om să renunțe la comenzile de conducere.

O altă formă de operare semi-autonomă ar presupune ca șoferul uman și AI să lucreze împreună într-o manieră de echipă. AI conduce și omul conduce. Ei conduc împreună. AI-ul s-ar putea îndrepta către om. Omul s-ar putea să se abată la AI.

La un moment dat, sistemul de conducere AI și șoferul uman în buclă ar putea ajunge la un punct de „dezacord profesional” în ceea ce privește sarcina de conducere.

Pentru a ilustra modul în care unele dintre regulile menționate mai sus de tratare a unui dezacord profesional pot fi dificil de implementat, luați în considerare exemplul de a invoca un om terț pentru a intra în chestiune și a oferi o decizie pentru a rezolva problema nerezolvată.

Să presupunem că un producător de automobile sau o firmă de tehnologie de conducere autonomă a aranjat ca operatorii umani de la distanță să aibă acces la comenzile de conducere ale vehiculelor din flota lor. Operatorul uman stă într-un birou îndepărtat sau într-un cadru asemănător. Prin intermediul unui sistem informatic, aceștia pot vizualiza scena de conducere accesând camerele și alte dispozitive cu senzori încărcate pe mașina cu conducere autonomă. Pentru ei, este aproape ca și cum ați juca un joc video online, deși, desigur, circumstanțele din viața reală au potențial consecințe grave.

Un sistem AI și un șofer uman în interiorul mașinii conduc un vehicul semiautonom pe o autostradă lungă. Dintr-o dată, IA vrea să se îndrepte într-un șanț. Șoferul uman nu vrea să facă asta. Cei doi se ceartă asupra comenzilor de conducere.

Cum se va rezolva asta?

Am fi putut, poate, să instituim dinainte că omul învinge întotdeauna. Să presupunem totuși că am ales să nu facem asta.

Am fi putut stabili dinainte că AI întotdeauna câștigă. Să presupunem că am ales să nu facem asta. Una peste alta, nu am adoptat niciuna dintre aceste reguli, cu excepția faptului că am decis să permitem unei terțe părți să intervină și să rezolve un dezacord profesional de orice natură substanțială.

În acest caz de utilizare, AI și șoferul uman de la volan se luptă pentru comenzile de conducere. Să spunem că acesta este transmis operatorului uman de la distanță (omul nostru terță parte). Operatorul uman de la distanță examinează ceea ce se întâmplă și decide să se îndepărteze de șanț, aparent împiedicând ceea ce AI încerca să facă. În același timp, să presupunem că operatorul uman de la distanță se îndreaptă spre traficul din sens opus, ceea ce poate nici AI, nici șoferul uman din interiorul mașinii nu au vrut să facă.

Ideea este că modul în care a fost implementată această regulă este că operatorul uman terță parte este capabil să suprascrie complet atât AI, cât și umanul în buclă. Cu siguranță nu este asigurat dacă acest lucru va produce un rezultat bun.

Voi folosi acest exemplu pentru a evidenția câteva informații suplimentare cu privire la aceste aspecte.

Nu puteți face presupunerea nespusă că doar pentru că una dintre aceste reguli este pusă în aplicare, rezultatul dezacordului rezolvat este în mod necesar un rezultat bun garantat. S-ar putea să nu fie. Nu există niciun fel de regulă întotdeauna corectă care să poată fi selectată.

În continuare, unele dintre aceste reguli ar putea să nu fie implementabile în mod viabil.

Luați în considerare exemplul operatorului uman de la distanță care intervine atunci când AI și șoferul uman se ceartă pentru comenzile de conducere. Operatorul uman de la distanță poate dura multe secunde pentru a-și da seama ce se întâmplă. Până atunci, este posibil ca vehiculul să fi ajuns deja în șanț sau să fi avut un alt rezultat negativ. De asemenea, să presupunem că locația vehiculului împiedică accesul de la distanță, cum ar fi a fi într-un loc unde nu există nicio conexiune electronică la rețea. Sau poate că funcțiile de rețea ale vehiculului nu funcționează în acel moment anume.

După cum puteți vedea, regula ar putea arăta obișnuită pe hârtie, deși aplicarea regulii în utilizare reală ar putea fi o abordare foarte dificilă sau extrem de hazardată. Vezi acoperirea mea critică despre operatorul de la distanță al vehiculelor autonome și al mașinilor cu conducere autonomă la linkul aici.

Aș dori să acopăr pe scurt un alt subiect înrudit pe care îl voi trata mai în profunzime într-o analiză viitoare.

Una dintre preocupările în creștere cu privire la vehiculele autonome și la mașinile cu conducere autonomă care sunt semiautonome este așa-numita Sindromul cartofului fierbinte.

Uite care-i propunerea.

Un sistem de conducere AI și un om conduc împreună. Apare o situație dificilă. AI a fost programat să renunțe la sarcina de conducere și să predea lucrurile omului atunci când are loc un moment îngrozitor. Acest lucru pare poate „sensat” în sensul că se pare că invocăm regula despre ființa umană „câștigătoare” implicită în orice potențial dezacord profesional.

Dar renunțarea la AI ar putea fi în scopuri mai nefaste sau considerate insidioase. S-ar putea ca producătorul de automobile sau firma de tehnologie de conducere autonomă să nu dorească ca AI-ul lor să fie considerat „partea de vină” atunci când are loc un accident de mașină. Pentru a evita aparent să fii prins astfel, AI-ul predă brusc controalele omului. Voila, omul este acum probabil complet responsabil pentru vehicul.

Kicker este că să presupunem că AI face această transferare cu o secundă mai rămasă înainte să apară un accident.

Ar avea omul într-adevăr timp disponibil pentru a preveni prăbușirea?

Probabil că nu.

Să presupunem că AI face transferul cu câteva milisecunde sau nanosecunde mai rămase. Îndrăznesc să spun că omul are practic zero șanse de a face orice pentru a preveni prăbușirea.

Din perspectiva producătorului de automobile sau a companiei de mașini autonome, aceștia pot încerca să se comporte ca și cum mâinile lor ar fi curate atunci când are loc un astfel de accident de mașină. Mașina era condusă de un om. AI nu conducea mașina. Singura concluzie „logică” ar părea să fie că omul trebuie să fie de vină, iar IA trebuie să fie complet fără vină.

Este un ciocan.

Voi discuta acest lucru mai aprofundat într-o rubrică viitoare.

Concluzie

Urmează să apară neînțelegeri profesionale.

Este greu de imaginat vreo sarcină complexă care are două părți care execută împreună sarcina și pentru care nu ar mai apărea vreodată dezacorduri profesionale. Acesta pare un tărâm al fanteziei sau cel puțin o mare raritate.

Astăzi, avem o mulțime și o mulțime de cazuri de dezacord profesional de la om la om, pentru care rezoluțiile zilnice sunt stabilite în mod pașnic și înțelept într-un fel sau altul. De fapt, de multe ori am creat situații în mod intenționat pentru a favoriza și a scoate la suprafață dezacordurile profesionale. Ați putea argumenta că acest lucru arată faimoasa înțelepciune că uneori două capete sunt mai bune decât unul.

Pe măsură ce AI devine mai răspândită, vom avea o mulțime de executanți ai sarcinilor de la IA la om sau de la om la AI și vor exista dezacorduri profesionale asta se va întâmpla. Abordarea leneșă este aceea de a arăta mereu omului. Aceasta ar putea să nu fie cea mai potrivită abordare. AI ar putea fi alegerea mai bună. Sau una dintre celelalte reguli menționate mai sus ar putea fi o abordare mai bună.

Există acea linie înțeleaptă care se repetă adesea că toți ar trebui să fim în general de acord să nu fim de acord, deși, când vine vorba de sârmă, uneori un dezacord trebuie rezolvat fără echivoc, altfel problema în cauză va duce la calamități nespuse. Nu putem lăsa doar un dezacord să lânceze pe viță de vie. Timpul ar putea fi esențial și viețile ar putea fi în joc.

Există o cerință clară pentru unele mijloace prudente de a rezolva dezacordurile, chiar dacă nu neapărat în mod acceptabil, inclusiv atunci când AI și un om în buclă nu văd ochi la ochi sau octet la octet.

Am încredere că nu veți fi de acord cu această afirmație complet agreabilă.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilotul-și-co-pilot-au-dezacord-înainte-de-decolare-și-au-optat-brusc-pentru-taxiul-înapoi-la-terminal-și-a-și-a-și-a-și-a-și-a-și-a-și-au-separat