Etica AI se gândește la meritele mandatării legale a fondurilor de ispășire pentru a asigura răspunderea pentru AI care acționează prost

Cine e de vină?

Aceasta ar putea părea o întrebare simplă, deși în cazul celebrei comedie scrisă de legendarul duo Abbott și Costello despre o echipă de baseball, „cine” poate fi confuz. S-ar putea să fii vag familiarizat cu Cine este pe primul loc Rutina de comedie pe care au transformat-o într-una dintre cele mai durabile scenete din toate timpurile (alertă spoiler pentru cei dintre voi care nu ați auzit-o).

Abbott îi spune lui Costello că Cine este primul, Ce este pe al doilea și I Don't Know este pe al treilea. Smecheria inteligentă este că jucătorul de la prima bază se numește Cine, al doilea subsol se numește Ce, iar cel de-al treilea se numește Nu știu. Desigur, acele fraze au și semnificația lor convențională și, prin urmare, încercarea de a interpreta ceea ce spune Abbott poate fi complet derutant. Într-adevăr, Costello pune întrebarea aparent inofensivă: cine este primul, pentru care răspunsul este un afirmat ferm. Dar acest lucru nu are sens pentru Costello, deoarece se aștepta la un nume și, în schimb, a primit un da nedumerit ca răspuns.

Schimbarea vitezelor, când vine vorba de apariția Inteligenței Artificiale (AI), una dintre cele mai enervante întrebări care se pun mereu implică cine sau poate ce va fi tras la răspundere atunci când AI se rătăcește.

Am discutat anterior despre răspunderea penală pentru cazurile în care AI duce la sau întreprinde acțiuni criminale, vezi acoperirea mea la linkul aici. Există, de asemenea, problema răspunderii civile, cum ar fi cine sau ce ați putea da în judecată atunci când AI v-a greșit, care este subiectul pe care îl voi discuta aici. Toate acestea au considerații semnificative de etică AI. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vitală pentru producerea AI adecvată, inclusiv (poate în mod surprinzător sau ironic) evaluarea modului în care etica AI este adoptată de companii.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. De fapt, ei avertizează că, dacă vom pune în aplicare unele dintre aceste legi AI, vom ucide gâsca de aur limitând progresele AI care oferă avantaje societale imense.

O dezbatere aprinsă care are loc este dacă legile existente sunt capabile să abordeze în mod adecvat apariția sistemelor IA în întreaga societate. Răspunderea legală presupune de obicei să puteți fixa coada pe măgar pentru a afla cine este responsabil pentru comportamentul dăunător. În cazul AI, ar putea exista o cale destul de neclară care leagă o anumită persoană sau persoane de AI care a efectuat o acțiune vătămătoare. AI ar putea fi în mare parte imposibil de urmărit la sursa sau inventatorul care a compus AI.

O altă considerație este că, chiar dacă rădăcinile IA pot fi urmărite la cineva, întrebarea este dacă persoana sau persoanele ar fi putut să nu prevadă în mod rezonabil rezultatul advers pe care IA l-a produs în cele din urmă. Elementul central al previzibilității este un factor notabil de obicei în evaluarea răspunderii juridice.

Ați putea fi tentat să credeți că puteți pur și simplu să urmăriți AI în sine și să numiți AI drept partea legală responsabilă sau responsabilă pentru orice prejudiciu care se presupune că a fost suferit. În general, opinia juridică predominantă este că AI nu a atins încă un nivel de personalitate juridică. Astfel, nu veți putea, strict vorbind, să căutați să faceți AI să plătească și va trebui să găsiți oameni care au lucrat cu pârghiile în spatele scenei, așa cum ar fi (pentru analiza mea a personalității juridice pentru AI, vezi linkul aici).

În toată această potențială mlaștină legală pășește o idee care este prezentată ca un posibil remediu, fie pe termen scurt, fie posibil pe termen lung. Ideea este că poate ar trebui înființat un fond special de compensare pentru a oferi ajutor financiar celor care au fost afectați de IA. Dacă altfel nu reușiți să obțineți AI să vă despăgubească și nu puteți identifica persoanele care ar trebui să fie trase la răspundere, următoarea cea mai bună opțiune ar putea fi accesarea unui fond de compensare care are ca scop să-i ajute pe cei afectați de AI.

Un astfel de fond ar fi asemănător cu o formă de asigurare, așa cum se precizează într-o lucrare de cercetare care provoacă gândirea: „Acesta ar fi, în esență, un mecanism de asigurare împotriva incertitudinii: un cadru clar și transparent pentru compensarea rapidă în cazurile în care un proces de răspundere este perspective incerte sau lipsite de succes din cauza naturii imprevizibile a comportamentului prejudiciabil, a (tipului) de daune în sine sau a costurilor excesive și/sau complexității procedurii” (articol de Olivia Erdelyi și Gabor Erdelyi, „The AI ​​Liability Puzzle Și o soluție bazată pe fonduri”, Journal of Artificial Intelligence Research, 2021).

Fondul de compensare ar face parte dintr-un sistem global de garantare AI (AIGS) și ar fi însoțit de unele modificări ușoare ale legilor existente privind răspunderea juridică. Atingerea ușoară ar fi probabil mai ușor de pus în aplicare și nu ar necesita un tip dificil de neliniște juridică și societală dacă s-ar aduce o serie de schimbări demonstrative mai sfâșietoare la regimurile juridice existente. Potrivit cercetătorilor: „Acest lucru reflectă convingerea noastră că – în ciuda atractivității unei astfel de soluții de remediere rapidă – nealterat aplicarea regulilor de răspundere existente la AI sau a motivat protecţionist recurgerea la răspunderea strictă în vederea stabilirii răspunderii cu orice preț nu sunt răspunsurile corecte din trei motive: în primul rând, ignorând faptul că acele reguli au fost adaptate diferitelor circumstanțe și, prin urmare, pot fi inadecvate pentru IA, ele contravin obiectivelor delicat echilibrate ale sistemul de răspundere juridică. În al doilea rând, acestea inhibă inovarea AI prin adoptarea unei abordări nejustificate de sancționare. În al treilea rând, recurgerea nejustificată la răspunderea strictă eludează doar problemele de previzibilitate și de vină într-o manieră inconsecventă din punct de vedere dogmatic, mai degrabă decât să le remedieze” (conform lucrării citate mai sus).

Argumentele în favoarea unor astfel de fonduri compensatorii AI includ:

  • Reduce necesitatea unor procese juridice lungi și costisitoare pentru a face față prejudiciilor cauzate de IA
  • Îi asigură pe oameni că pot folosi AI și pot fi compensați dacă sunt răniți
  • Promovează inovația AI prin atenuarea incertitudinii juridice cu care se confruntă inovatorii AI
  • Poate fi folosit mult mai rapid decât efectuarea unor modificări masive ale legilor existente
  • Oferă un remediu relativ clar, care este de încredere și ușor disponibil
  • Altele

Între timp, cei care se opun abordării fondurilor compensatorii AI spun asta:

  • Să-i lăsăm pe creatorii de inteligență artificială să se desprindă excesiv și să le permitem să evite responsabilitatea
  • Îi va încuraja pe creatorii de inteligență artificială să creeze o inteligență artificială care nu are siguranță și controale adecvate
  • Ar putea stimula oamenii să pretindă în mod fals daunele AI, astfel încât să poată profita de fonduri
  • Ocolește și subminează adevărata nevoie de a ne revizui legile pentru a guverna suficient AI
  • Ar putea deveni un coșmar birocratic care se blochează și folosește greșit fondurile
  • Altele

După cum ar putea fi evident, există atât susținători, cât și oponenți ai acestei noțiuni cu totul controversate.

V-ar fi greu să excludeți în mod sumar fondul de compensare AI ca o potențială abordare a preocupărilor în creștere cu privire la IA care provoacă prejudicii. Nici soluția propusă nu este un slam dunk.

Un punct de vedere este că producătorii de inteligență artificială ar trebui să investească bani în fonduri ca parte a eforturilor lor atunci când elaborează și promulgă inteligența artificială. Acest lucru ar putea fi interpretat ca un fel de taxă sau taxă pe care trebuie să o suporte pentru a-și putea elibera AI în lume. Dar acest cost suplimentar poate suprima eforturile startup-urilor care încearcă să depășească limitele IA de astăzi? Și cum ar fi gestionată punerea în aplicare a asigurării că producătorii de inteligență artificială și-au plătit taxa sau impozitul?

Apar o serie de întrebări și ar trebui rezolvate:

  • În ce țări ar fi cel mai fezabil un fond compensator pentru IA?
  • Ar putea fi stabilită o aparență globală de fonduri compensatorii AI interconectate?
  • Care ar fi mecanismele detaliate și funcționale asociate cu astfel de fonduri?
  • Cum vor fi finanțate fondurile compensatorii AI (publice, private, caritabile)?
  • Ar fi aceasta o bază de asigurare fără vină sau ar fi luată o altă abordare?
  • Etc

Un tărâm care a avut deja ideea fondurilor compensatorii AI constă în sisteme autonome, cum ar fi vehiculele autonome și mașinile cu conducere autonomă. Pentru acoperirea mea despre mașinile cu conducere autonomă și sistemele autonome AI, vezi linkul aici.

Iată o schiță a modului în care ar putea funcționa acest lucru pentru mașinile cu conducere autonomă bazate pe inteligență artificială.

Să presupunem că o mașină care se conduce singur se lovește de un ciclist. Motociclistul este rănit. Ciclistul ar putea solicita o despăgubire legală urmărind producătorul auto al vehiculului autonom. Sau ar putea viza firma tehnologică de conducere autonomă care a realizat sistemul de conducere AI. Dacă mașina cu conducere autonomă este exploatată ca flotă, o altă cale legală ar fi urmărirea operatorului de flotă. Încercarea de a da în judecată AI nu este o opțiune în acest moment, deoarece personalitatea juridică a AI nu este încă stabilită.

În loc să luați o acțiune în justiție împotriva oricăreia dintre acele părți, o altă soluție ar fi de a depune o cerere sau o cerere la un fond de compensare AI adecvat. Fondul ar fi formalizat procese care implică revizuirea cererii și apoi ar fi determinat dacă plăți compensatorii ar putea fi furnizate reclamantului. Ar putea exista un proces de contestație care să ajute reclamanții care cred că au fost fie refuzați în mod greșit de fond, fie compensați insuficient de fond.

În teorie, fondul de compensare AI ar fi o cale mult mai rapidă pentru a obține despăgubiri pentru prejudiciul cauzat. Vă puteți imagina cât de laborios ar putea fi un proces, prin care firmele care sunt trimise în judecată ar putea încerca să tragă cazul.

Avocații ar putea, totuși, să sublinieze că fondul de compensare AI ar putea permite celorlalte părți, cum ar fi producătorii de AI, să evite aparent orice penalizare clară pentru că și-au lăsat mașina care se conduce singur pe drumurile publice care a ajuns să lovească un ciclist. Ce altceva ar putea acele firme să opteze să facă „nepăsător”? Fără spectrul care se profilează al sabiei legale care atârnă deasupra capetelor lor, ne-am putea trezi zilnic confruntându-ne cu AI care este plină de capacități care pun în pericol.

Rond și rotund argumentele merg.

Concluzie

AI Ethics ne reamintește că ar trebui să luăm întotdeauna în considerare ramificațiile etice și juridice ale AI. În acest caz al fondurilor compensatorii AI, noțiunea propusă de fonduri asemănătoare asigurărilor pentru compensarea celor care sunt afectați de IA pare atrăgătoare. Se pare că fondurile ar aștepta acolo, gata să fie utilizate și să ofere o compensație cât mai curând posibil.

Compensațiile dacă acest lucru ar putea deschide porțile spre realizarea unei AI care are din ce în ce mai puține controale de siguranță este o preocupare descurajantă și prea reală. Probabil că nu trebuie să adăugăm combustibil la un incendiu care poate este deja oarecum în curs.

Putem, cumva, să-i obligă pe creatorii de AI să elaboreze IA etică adecvată și să stabilească simultan aceste fonduri compensatorii pentru IA?

Unii ar spune că da, putem. Prin reajustarea legilor existente pentru a se alinia cu fondurile compensatorii ale AI, cei care sunt afectați de IA ar avea potențial o cale dublă pentru a-și căuta compensarea justă.

Cine este primul?

Da, acesta este cel care (ca și în noi toți) este la prima observație că ar trebui să ne gândim la potențiala utilizare a fondurilor compensatorii AI și să modificăm legile existente, chiar dacă doar ușor, oferind un mijloc de a face față atacului atât al bunului AI, cât și al IA. AI proastă.

Nu există nicio confuzie cu privire la acest aspect vital.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- responsabilitate/