Etica AI și Legea AI care clarifică ceea ce este de fapt IA de încredere

Încrederea este totul, așa spun ei.

Renumitul filosof Lao Tzu a spus că cei care nu au suficientă încredere nu vor fi de încredere. Ernest Hemingway, un romancier stimat, a declarat că cel mai bun mod de a afla dacă poți avea încredere în cineva este să ai încredere în el.

Între timp, se pare că încrederea este atât prețioasă, cât și fragilă. Încrederea pe care o avem se poate prăbuși ca un castel de cărți sau poate izbucni brusc ca un balon spart.

Tragedianul grec antic Sofocle a afirmat că încrederea moare, dar neîncrederea înflorește. Filosoful și matematicianul francez Descartes a susținut că este prudent să nu avem niciodată încredere totală în cei care ne-au înșelat nici măcar o dată. Extraordinarul investitor miliardar în afaceri Warren Buffett a îndemnat că este nevoie de douăzeci de ani pentru a construi o reputație de încredere și cinci minute pentru a o ruina.

S-ar putea să fii surprins să știi că toate aceste puncte de vedere variate și opinii provocatoare despre încredere sunt cruciale pentru apariția Inteligenței Artificiale (AI).

Da, există ceva denumit cu atenție AI de încredere care continuă să primească o mare atenție în aceste zile, inclusiv strigări de mână din domeniul AI și, de asemenea, izbucniri zgomotoase din partea celor din afara tărâmului AI. Noțiunea generală presupune dacă societatea va fi sau nu dispusă să-și pună încrederea în sistemele AI.

Probabil, dacă societatea nu va avea sau nu poate avea încredere în AI, șansele sunt ca sistemele AI să nu reușească să aibă tracțiune. Inteligența artificială, așa cum o știm în prezent, va fi lăsată deoparte și va colecta doar praf. În mod șocant, inteligența artificială ar putea ajunge în grămada de vechituri, retrogradată istoric la nimic mai mult decât un experiment de înaltă tehnologie încercat cu disperare, dar eșuat spectaculos. Orice eforturi de revigorare a inteligenței artificiale s-ar confrunta cu o luptă uriașă și ar fi oprită de tot felul de obiecții și proteste directe. Aparent, din cauza lipsei de încredere în AI.

Care va fi, trebuie să avem încredere în AI sau nu trebuie să avem încredere în AI?

În esență, vom avea cu adevărat AI de încredere?

Acestea sunt întrebări de altădată și nerezolvate. Să-l despachetăm.

Etica AI și lupta pentru IA de încredere

Credința multor din cadrul AI este că dezvoltatorii de sisteme AI pot câștiga încredere în AI prin conceperea adecvată a AI care să fie de încredere. Esența este că nu poți spera să câștigi încredere dacă AI nu este aparent de încredere la început. Prin crearea sistemelor AI într-o manieră care este percepută a fi de încredere, există o șansă solidă ca oamenii să accepte AI și să adopte utilizări ale AI.

O scuză care deja sâcâie la această considerație de încredere AI este că s-ar putea să fim deja într-un deficit de încredere publică când vine vorba de AI. Ați putea spune că IA pe care am văzut-o deja a săpat o groapă și a aruncat în spate încrederea în cantități masive. Astfel, mai degrabă decât să pornească de la o bază suficientă de încredere, AI va trebui să iasă uimitor din deficit, găzduind fiecare uncie de încredere adăugată dorită care va fi necesară pentru a convinge oamenii că AI este de fapt demnă de încredere.

În această provocare vine Etica AI și Legea AI.

Etica AI și Legea AI se luptă puternic în încercarea de a-și da seama de ce va fi nevoie pentru a face AI demnă de încredere. Unii sugerează că există o formulă sau legi de fier care vor aduce AI în cerurile de încredere. Alții indică faptul că va fi nevoie de muncă grea și de aderarea consecventă și neîncetată la principiile Eticii AI și ale Legii AI pentru a obține încrederea lăudată a societății.

Enigma contemporană despre încrederea în AI nu este deosebit de nouă în sine.

Vă puteți întoarce cu ușurință la sfârșitul anilor 1990 și puteți urmări apariția unei dorințe căutate de „calculatură de încredere” din acele vremuri. Acesta a fost un efort pe scară largă a industriei tehnologice pentru a discerne dacă computerele ar putea fi realizate într-un mod care să fie interpretat ca demn de încredere de către societate.

Întrebările cheie au constat în:

  • Ar putea fi făcut hardware-ul computerului astfel încât să fie demn de încredere?
  • Ar putea software-ul să fie creat astfel încât să fie demn de încredere?
  • Am putea pune la punct calculatoare globale în rețea care să fie de încredere?
  • Și așa mai departe.

Sentimentul predominant atunci și care continuă până în ziua de azi este că computerul de încredere rămâne un tip de Sfântul Graal care, din păcate, nu este încă la îndemâna noastră (așa cum se menționează într-o lucrare intitulată „Trustworthy AI” din Comunicări ale ACM). Ați putea argumenta în mod convingător că AI este încă o componentă a învelișului de încredere în calcul, totuși AI face căutarea încrederii și mai dificilă și mai incertă. AI a devenit potențialul spoiler în lupta pentru a obține o calculare de încredere. Posibil cea mai slabă verigă a lanțului, parcă.

Să aruncăm o privire rapidă la motivul pentru care inteligența artificială ne-a înțeles că nu suntem demni de încredere. În plus, vom explora principiile eticii AI, care se speră că vor ajuta la susținerea încrederii deja semi-subacvatice percepute (sau neîncrederea în atmosfera) în IA de astăzi. Pentru acoperirea mea continuă și extinsă a eticii AI, vezi linkul aici și linkul aici, Doar pentru a numi câteva.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a afirmat mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să legăm asta de întrebarea despre AI de încredere

Cu siguranță nu pare să fim dispuși să avem încredere în IA care prezintă părtiniri negative și acțiuni discriminatorii. Convingerea noastră, în acest caz, ar fi că o astfel de inteligență artificială nu este cu siguranță demnă de încredere, așa că ne-am înclina către neîncredere activă în inteligență artificială. Fără a exagera cu o comparație antropomorfă (voi spune mai multe despre antropomorfizarea AI într-un moment), un om care a prezentat prejudecăți nefavorabile ar fi, de asemenea, supus evaluării ca nefiind deosebit de demn de încredere.

Sapă în încredere și credibilitate

Poate ar trebui să ne uităm la ce ne referim atunci când afirmăm că avem sau nu încredere în cineva sau ceva. În primul rând, luați în considerare mai multe definiții de dicționar de zi cu zi ale încrederii.

Exemple de ceea ce înseamnă încredere în mod definit sunt:

  • Încredere asigurată pe caracterul, capacitatea, puterea sau adevărul cuiva sau a ceva (Dicționar online Merriam-Webster).
  • Încrederea pe integritatea, puterea, capacitatea, garanția etc., a unei persoane sau a unui lucru (Dictionary.com)
  • Credința fermă în fiabilitatea, adevărul, capacitatea sau puterea cuiva sau a ceva (Dicționar online de limbi Oxford).

Aș dori să subliniez că toate aceste definiții se referă la „cineva” și, de asemenea, se referă la „ceva” ca fiind potențial de încredere. Acest lucru este notabil, deoarece unii ar putea insista că avem încredere doar în oameni și că actul de a avea încredere este rezervat exclusiv omenirii ca ținta noastră de încredere. Nu asa. Puteți avea încredere în prăjitorul de pâine de bucătărie. Dacă pare că vă face pâine prăjită în mod fiabil și lucrează în mod obișnuit pentru a face acest lucru, cu siguranță puteți avea o aparență de încredere în ceea ce privește dacă prăjitorul este de fapt demn de încredere.

În aceeași linie de gândire, AI poate fi, de asemenea, subiectul punctului nostru de vedere al încrederii. Şansele sunt că încrederea asociată cu AI va fi mult mai complicată decât să spunem un prăjitor de pâine banal. Un prăjitor de pâine poate face de obicei doar o mână de acțiuni. Un sistem AI este probabil să fie mult mai complex și să pară să funcționeze mai puțin transparent. Capacitatea noastră de a evalua și de a constata fiabilitatea IA va fi cu siguranță mult mai dificilă și va oferi provocări distincte.

Pe lângă faptul că este doar mai complex, se spune că un sistem AI tipic este nedeterminist și potențial se autoreglează sau se autoajustează. Putem explora pe scurt această noțiune.

O mașină deterministă tinde să facă aceleași lucruri din nou și din nou, în mod previzibil și cu un model viabil vizibil al modului în care funcționează. Ați putea spune că un prăjitor de pâine obișnuit prăjește aproximativ în același mod și are comenzi de prăjire care moderează prăjirea, toate acestea fiind, în general, previzibile de persoana care folosește prăjitorul. În schimb, sistemele complexe de IA sunt adesea concepute pentru a fi nedeterministe, ceea ce înseamnă că ar putea face lucruri destul de diferite dincolo de ceea ce te-ai fi așteptat altfel. Acest lucru ar putea fi parțial amplificat și mai mult dacă IA este scrisă pentru a se autoajusta, un aspect care poate permite în mod avantajos AI să se îmbunătățească în cazul ML/DL, deși poate provoca, de asemenea, tulburător, AI-ul să se clătească sau să intre în rânduri. de răutate AI. S-ar putea să nu știi ce te-a lovit, într-un fel de a spune, deoarece ai fost prins complet neprevăzut de acțiunile AI.

Ce am putea face pentru a încerca să aducem AI mai aproape de încredere?

O abordare constă în încercarea de a ne asigura că cei care construiesc și folosesc IA respectă un set de precepte de etică AI. După cum au menționat acești cercetători AI: „Încrederea este o atitudine conform căreia un agent se va comporta conform așteptărilor și pe care se poate baza pentru a-și atinge scopul. Încrederea se strică după o eroare sau neînțelegere între agent și persoana care are încredere. Starea psihologică de încredere în IA este o proprietate emergentă a unui sistem complex, care implică, de obicei, multe cicluri de proiectare, instruire, desfășurare, măsurare a performanței, reglementare, reproiectare și recalificare” (indicat în Comunicări ale ACM, „Trust, Regulation, and Human-in-the-Loop AI Within the European Region” de Stuart Middleton, Emmanuel Letouze, Ali Hossaini și Adriane Chapman, aprilie 2022).

Esența este că, dacă îi putem determina pe dezvoltatorii AI să respecte Ethical AI, sperăm că vor ajunge să producă AI de încredere. Toate acestea sunt bune și bune, dar pare oarecum nepractic în lumea reală, deși este absolut o cale care merită urmată.

Iată ce vreau să spun.

Să presupunem că dezvoltatorii AI fac un efort sârguincios care creează un sistem AI într-un anumit scop pe care îl vom numi în general X. Ei se asigură cu atenție că AI respectă preceptele de transparență ale Eticii AI. Ei se asigură cu atenție că confidențialitatea este integrată corespunzător în AI. Pentru aproape toate principiile obișnuite de etică AI, constructorii AI se asigură în mod exhaustiv că AI respectă preceptul dat.

Acum ar trebui să ai încredere în acel AI?

Permiteți-mi să vă ajut să vă răsfoiesc gândurile cu privire la această întrebare deschisă.

Se dovedește că escrocii cibernetici au reușit să se infiltreze în AI și să-l determine pe furiș să efectueze X și totuși să alimenteze hackerii cibernetici cu toate datele pe care AI le colectează. Procedând astfel, acești răufăcători subcalcă insidios preceptul de confidențialitate. Nu știți în mod fericit că acest lucru se întâmplă sub capota AI.

Cu această informație adăugată, vă voi pune din nou aceeași întrebare.

Ai încredere în acel AI?

Îndrăznesc să spun că majoritatea oamenilor ar declara imediat că cu siguranță o fac nu ai încredere în acest AI special. Poate că au avut încredere mai devreme. Ei optează acum să nu mai considere AI-ul demn de încredere.

Câteva perspective cheie bazate pe acest exemplu simplu sunt demne de contemplare:

  • Dinamica încrederii. Chiar și cele mai bune intenții de a acoperi toate bazele pentru a se asigura că Etica AI este încorporată într-un sistem AI nu reprezintă o garanție a ceea ce s-ar putea dovedi sau deveni AI. Odată ce IA este pusă în funcțiune, străinii pot submina acumulările de IA etică.
  • Subcotarea încrederii din interior. Actul de a subestima fiabilitatea nu trebuie neapărat să fie din exterior. O persoană din interior care face întreținere regulată a sistemului AI ar putea greși și slăbi AI pentru a fi mai puțin demn de încredere. Acest dezvoltator de inteligență artificială ar putea să nu aibă nicio idee despre ceea ce a făcut.
  • Compromisuri inadvertente ale încrederii. O IA care se ajustează sau se autoreglează s-ar putea, la un moment dat, să se adapteze și să se îndrepte către teritoriul nedemn de încredere. Poate că AI încearcă să întărească transparența AI și totuși compromite simultan și inadecvat aspectele de confidențialitate.
  • Răspândirea Încrederii. Încercarea de a atinge toate principiile eticii AI la același grad maxim de încredere nu este, de obicei, ușor viabilă, deoarece acestea sunt adesea în scopuri încrucișate sau au alte conflicte potențiale inerente. Este o perspectivă mai degrabă idealizată să credem că toate preceptele AI etice sunt aliniate visător și toate pot fi atinse într-o măsură egală maximă.
  • Încrederea poate fi costisitoare de atins. Costul de a încerca să obțină o aparență de top de AI de încredere prin efectuarea diferiților pași extinși și exhaustivi și respectarea litaniei principiilor eticii AI va fi relativ mare. Puteți argumenta cu ușurință că costul ar fi prohibitiv în ceea ce privește folosirea unor sisteme AI care, altfel, au o valoare importantă pentru societate, chiar dacă IA ar fi mai puțin decât ideală dintr-o dorință de încredere.
  • Și așa mai departe.

Nu interpretați greșit remarcile anterioare pentru a sugera că ar trebui cumva să evităm efortul de a construi și a pune în aplicare AI de încredere. Ai arunca sumar copilul cu apa din baie, parcă. Interpretarea corectă este că trebuie să facem acele activități de încredere pentru a pune AI într-o considerație demnă de încredere și, totuși, numai asta nu este un remediu sau un glonț de argint.

Căi cu mai multe puncte către IA de încredere

Există modalități suplimentare importante pe mai multe direcții de a depune eforturi pentru a obține o IA de încredere.

De exemplu, așa cum am descris anterior în rubricile mele, o multitudine de legi și reglementări noi care se afișează cu privire la IA urmăresc să-i determine pe producătorii de AI să creeze AI de încredere, vezi linkul aici și linkul aici.

Aceste balustrade legale sunt esențiale ca mijloc global de a se asigura că cei care creează IA sunt considerați pe deplin răspunzători pentru IA lor. Fără astfel de remedii legale potențiale și sancțiuni legale, cei care grabesc AI pe piață sunt probabil să continue să facă acest lucru, cu puțină atenție serioasă pentru obținerea unei AI de încredere. Aș putea adăuga, în special, că, dacă acele legi și reglementări sunt prost concepute sau implementate inadecvat, ele ar putea submina, din păcate, urmărirea unei IA de încredere, poate încurajând în mod ironic și ciudat IA nedemn de încredere în locul AI de încredere (vezi discuțiile mele în coloana pentru explicații suplimentare).

De asemenea, am fost un susținător ferm pentru ceea ce m-am referit cu ardoare roboți cu AI înger păzitor (vezi acoperirea mea la linkul aici). Aceasta este o metodă sau o abordare viitoare de a încerca să lupți cu focul cu foc, și anume folosirea AI pentru a ne ajuta să ne confruntăm cu alte AI care ar putea fi sau nu de încredere.

În primul rând, un context de fundal va fi util.

Să presupunem că alegeți să vă bazați pe un sistem AI și nu sunteți sigur de fiabilitatea acestuia. O preocupare cheie ar putea fi faptul că ești singur în încercările tale de a afla dacă AI trebuie să fie de încredere sau nu. AI este potențial mai rapidă din punct de vedere computațional decât tine și poate profita de tine. Ai nevoie de cineva sau ceva de partea ta care să te ajute.

O perspectivă este că ar trebui să existe întotdeauna un om în buclă care să vă ajute atunci când utilizați un sistem AI. Aceasta este însă o soluție problematică. Dacă AI funcționează în timp real, despre care vom discuta momentan atunci când vine vorba de apariția mașinilor autonome bazate pe inteligență artificială, a avea un om în buclă ar putea să nu fie suficient. AI ar putea acționa în timp real și, în momentul în care un om desemnat în buclă intră în imagine pentru a-și da seama dacă AI funcționează corect, s-ar putea să fi avut deja un rezultat catastrofal.

Ca o parte, acest lucru aduce în evidență un alt factor despre încredere. De obicei, atribuim un nivel de încredere în funcție de contextul sau circumstanțele cu care ne confruntăm. S-ar putea să aveți încredere deplină în fiul sau fiica dvs. de copil mic pentru a vă fi credincioși, dar dacă sunteți în drumeții și decideți să vă bazați pe copilul mic să vă spună dacă este sigur să pășiți pe marginea unei stânci, cred că ați fi înțelept. să se gândească dacă copilul mic poate oferi acest tip de sfaturi pe viață sau pe moarte. Copilul ar putea să facă acest lucru cu seriozitate și sinceritate și, totuși, să nu fie în măsură să ofere în mod adecvat un astfel de sfat.

Aceeași noțiune este asociată cu încrederea atunci când vine vorba de AI. Un sistem AI pe care îl utilizați pentru a juca dame sau șah probabil nu este implicat în nicio deliberare pe viață sau pe moarte. Puteți fi mai ușor cu atribuirea dvs. de încredere. O mașină cu conducere autonomă bazată pe inteligență artificială, care curge pe o autostradă la viteze mari, necesită un nivel de încredere mult mai intens. Cea mai mică eroare a sistemului de conducere AI ar putea duce direct la moartea ta și la moartea altora.

Într-un interviu publicat de Beena Ammanath, director executiv al Institutului Global Deloitte AI și autoarea cărții AI de încredere, un accent similar pe luarea în considerare a fațetelor contextuale în care intervine încrederea AI: „Dacă construiți o soluție AI care face diagnosticarea pacientului, corectitudinea și părtinirea sunt foarte importante. Dar dacă construiți un algoritm care prezice defecțiunea motorului cu reacție, corectitudinea și părtinirea nu sunt la fel de importante. AI de încredere este într-adevăr o structură pentru a începe să vă gândiți la dimensiunile încrederii în cadrul organizației dvs.” (VentureBeat, 22 martie 2022).

Când discutați despre AI de încredere, puteți interpreta acest subiect într-o multitudine de moduri.

De exemplu, AI de încredere este ceva pe care toți îl vedem ca un obiectiv dezirabil și aspirațional, și anume că ar trebui să dorim să concepe și să promulgă IA de încredere. Există o altă utilizare a sloganului. O utilizare oarecum alternativă este aceea AI de încredere este o stare de stare sau de măsurare, astfel încât cineva ar putea afirma că a creat un sistem AI care este o instanță de AI de încredere. Puteți folosi și expresia AI de încredere pentru a sugera o metodă sau o abordare care poate fi utilizată pentru a obține încrederea AI. etc.

Într-o notă similară, am încredere că vă dați seama că nu toată IA este la fel și că trebuie să fim atenți să nu facem declarații generale despre toată AI. Un anumit sistem AI este probabil să fie semnificativ diferit de un alt sistem AI. Unul dintre aceste sisteme AI ar putea fi foarte demn de încredere, în timp ce celălalt ar putea fi puțin demn de încredere. Fiți precaut atunci când presupuneți cumva că AI este un monolit care este fie complet demn de încredere, fie complet nedemn de încredere.

Pur și simplu nu este cazul.

Aș dori în continuare să acopăr pe scurt unele dintre cercetările mele în curs despre IA de încredere pe care le-ați putea găsi de interes, acoperind rolul care decurge din roboți cu AI înger păzitor.

Iată cum merge.

Veți fi înarmat cu un sistem AI (un bot de înger păzitor AI) care este conceput pentru a evalua fiabilitatea unui alt sistem AI. Botul de înger păzitor AI are ca obiectiv primordial siguranța ta. Gândește-te la asta ca și cum ai avea mijloacele de a monitoriza AI pe care te bazezi, având un sistem AI diferit în adevăratul buzunar, poate rulând pe smartphone-ul tău sau pe alte astfel de dispozitive. Gardianul tău AI proverbial poate calcula pe baza faptului că AI pe care te bazezi o face, lucrând la viteze rapide și calculând situația în timp real, mult mai rapid decât ar putea face acest lucru un om-în-buclă.

S-ar putea să vă gândiți la o primă privire că IA pe care vă bazați deja ar trebui să aibă ceva intern Balustrade AI care fac la fel ca acest bot de înger păzitor AI care calculează separat. Da, cu siguranță asta ar fi de dorit. O scuză este că balustradele AI încorporate într-un sistem AI ar putea fi aliniate integral și prejudiciabil cu AI în sine, astfel încât presupusa balustradă AI nu mai este capabilă, într-un sens, să verifice sau să valideze independent AI.

Ideea contrastantă este că botul tău de înger păzitor AI este un mecanism AI independent sau terță parte, care este diferit de AI pe care te bazezi. Se află în afara celeilalte IA, rămânând devotat ție și nu devotat AI care este monitorizat sau evaluat.

Un mijloc simplu de a gândi la acest lucru poate fi exprimat prin următoarele declarații simplificate asemănătoare ecuațiilor. Am putea spune că „P” dorește să aibă încredere în „R” pentru a face o anumită sarcină „X”:

Acesta ar fi următorul atunci când sunt implicați numai oameni:

  • Persoana P are încredere în persoana R pentru a îndeplini sarcina X.

Când alegem să ne bazăm pe AI, declarația se remodelează astfel:

  • Persoana P are încredere în instanța AI-R pentru a face sarcina X.

Putem adăuga botul îngerului păzitor AI spunând asta:

  • Persoana P are încredere în instanța AI-R pentru a face sarcina X ca fiind monitorizată de instanța bot-Z a îngerului păzitor AI

Îngerul păzitor bot AI evaluează neobosit și neobosit AI pe care te bazezi. Ca atare, gardianul tău AI la îndemână te poate avertiza că încrederea acestui alt AI este nejustificată. Sau, gardianul AI ar putea interacționa electronic cu celălalt AI pentru a încerca să se asigure că orice variație departe de a fi demnă de încredere este corectată rapid și așa mai departe (vezi acoperirea mea despre astfel de detalii la linkul aici).

Metafora Rezervorului Trusty Trust

Deoarece discutăm despre diferite niveluri de încredere, s-ar putea să găsiți de folos o metaforă la îndemână despre încredere, prin conceperea încrederii ca un tip de rezervor.

Aveți o anumită încredere pentru o anumită persoană sau lucru într-o anumită circumstanță la un anumit moment în timp. Nivelul încrederii va crește sau va scădea, în funcție de ceea ce se întâmplă în legătură cu acea persoană sau lucru. Încrederea ar putea fi la un nivel zero atunci când nu ai niciun fel de încredere pentru persoană sau lucru. Încrederea poate fi negativă atunci când te aventurezi să ai neîncredere în acea persoană sau în acel lucru.

În cazul sistemelor AI, rezervorul dvs. de încredere pentru IA particulară pe care vă bazați într-o anumită circumstanță va crește sau scădea în funcție de măsurarea de către dvs. a fiabilității AI. Uneori, s-ar putea să fiți foarte conștienți de acest nivel diferit de încredere în AI, în timp ce în alte cazuri s-ar putea să fiți mai puțin conștient și mai mult prin bănuiala să emiteți judecăți cu privire la încredere.

Modalitățile pe care le-am discutat aici despre mijloacele de a crește nivelul de încredere pentru AI includ:

  • Aderarea la etica AI. Dacă IA pe care te bazezi a fost concepută încercând să adere la preceptele adecvate de etică AI, probabil că ai folosi această înțelegere pentru a crește nivelul rezervorului tău de încredere pentru acel anumit sistem AI. Ca o notă secundară, este, de asemenea, posibil să generalizați la alte sisteme AI cu privire la fiabilitatea lor, de asemenea, deși aceasta poate fi uneori o formă înșelătoare a ceea ce eu numesc AI are încredere în răspândirea aurei (fii atent când faci asta!).
  • Utilizați un Human-In-The-Loop. Dacă IA are un om-în-buclă, s-ar putea să adaugi în mod pozitiv la încrederea percepută în AI.
  • Stabiliți legi și reglementări. Dacă există legi și reglementări asociate cu acest tip special de IA, s-ar putea, de asemenea, să vă creșteți nivelul de încredere.
  • Folosiți un bot de înger păzitor AI. Dacă aveți pregătit un bot de înger păzitor AI, și acesta vă va crește și mai mult nivelul de încredere.

După cum am menționat mai devreme, încrederea poate fi destul de fragilă și se poate destrama într-o clipă (adică, rezervorul de încredere elimină rapid și brusc toată încrederea acumulată).

Imaginați-vă că vă aflați într-o mașină cu conducere autonomă bazată pe inteligență artificială, iar conducerea prin inteligență artificială face brusc o întoarcere radicală la dreapta, provocând roțile să scârțâie și aproape forțând vehiculul autonom să se răstoarne în pericol. Ce s-ar întâmpla cu nivelul tău de încredere? S-ar părea că, chiar dacă ați ținut anterior AI-ul la un nivel ridicat de încredere, v-ați scădea dramatic și brusc nivelul de încredere, în mod sensibil.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de exemple ilustrative suplimentare care ar putea prezenta natura și domeniul de aplicare a AI de încredere. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre căutarea unei inteligențe artificiale de încredere și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini autonome și IA de încredere

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și AI de încredere.

Încrederea este totul, mai ales în cazul mașinilor cu conducere autonomă bazate pe inteligență artificială.

Societatea pare să privească cu prudență apariția mașinilor care se conduc singure. Pe de o parte, există o mare speranță că apariția mașinilor adevărate cu conducere autonomă va reduce în mod demonstrabil numărul de decese anuale legate de mașini. Numai în Statele Unite există aproximativ 40,000 de decese anuale și aproximativ 2.5 milioane de răniți din cauza accidentelor de mașină, vezi colecția mea de statistici la linkul aici. Oamenii beau și conduc. Oamenii conduc când sunt distrași. Sarcina de a conduce o mașină pare să constă în a fi capabil să se concentreze în mod repetitiv și fără greșeală asupra condusului și să evite intrarea în accidente de mașină. Ca atare, am putea să sperăm că sistemele de conducere AI vor ghida mașinile cu conducere autonomă în mod repetitiv și fără greșeală. Puteți interpreta mașinile cu conducere autonomă ca un dublu, constând în reducerea volumului de decese și răniri în accidente de mașină, împreună cu posibilitatea de a face mobilitatea disponibilă pe o bază mult mai largă și accesibilă.

Dar, între timp, îngrijorarea planează asupra percepțiilor societății cu privire la faptul dacă mașinile cu conducere autonomă vor fi suficient de sigure pentru a fi pe drumurile noastre publice în general.

Dacă chiar și o mașină cu conducere autonomă intră într-un accident sau o coliziune care duce la un singur deces sau rănire gravă, probabil că puteți anticipa că încrederea oarecum acumulată de astăzi față de acele mașini fără șofer bazate pe inteligență artificială va scădea brusc. Am văzut că acest lucru s-a întâmplat atunci când a avut loc incidentul acum infam în Arizona, care a implicat o mașină oarecum (nu chiar) care se conducea singur, care a intrat și a ucis un pieton (vezi acoperirea mea la acest link aici).

Unii experți subliniază că este nedrept și nepotrivit să se bazeze încrederea mașinilor autonome cu inteligență artificială pe aspectul că doar unul dintre următoarele accidente sau coliziuni provocatoare de moarte ar putea submina încercările pe drumurile publice deja relativ fără accidente. În plus, pe o altă bază inechitabilă, șansele sunt că, indiferent de marcă sau model de mașină cu AI care se conduce singur, poate fi implicat într-un incident dureros, societatea ar învinovăți fără îndoială toate mărcile de mașini cu conducere autonomă.

Întreaga mașină cu conducere autonomă ar putea fi defectuoasă, iar industria în ansamblu ar putea suferi o reacție uriașă care să conducă la o posibilă oprire a tuturor încercărilor pe drumurile publice.

O contribuție la o astfel de întoarcere se găsește în proclamațiile fără sens ale susținătorilor fericiți ai mașinilor cu conducere autonomă, potrivit cărora toate mașinile fără șofer vor fi imposibil de prăbușit. Această idee de a nu se prăbuși nu este doar complet greșită (vezi linkul aici), creează în mod insidios industria de mașini cu conducere autonomă pentru un set de așteptări total nereguli. Aceste declarații ciudate și de nerealizat că vor exista zero decese din cauza mașinilor care se conduc singure alimentează concepția greșită că orice accident de mașină fără șofer este un semn sigur că întregul kit și kaboodle-ul este degeaba.

Există o tristețe distinctă să realizezi că progresul către mașinile cu conducere autonomă și acumularea de centimetri la un moment dat a încrederii societății ar putea fi eliminate într-o clipă. Aceasta va fi o expoziție despre fragilitatea încrederii.

Concluzie

Mulți producători de automobile și firme de tehnologie cu auto-conducere respectă, în general, principiile de etică AI, făcând acest lucru pentru a încerca să construiască și să promoveze AI de încredere în ceea ce privește mașinile autonome bazate pe AI, sigure și fiabile. Vă rugăm să realizați că unele dintre aceste firme sunt mai puternice și mai devotate preceptelor AI etice decât altele. Există, de asemenea, ocazional, startup-uri marginale sau începători care se conduc singuri, care par să lase deoparte o mare parte din pietrele de temelie ale eticii AI (vezi recenzia mea la linkul aici).

Pe alte fronturi, noi legi și reglementări care acoperă mașinile cu conducere autonomă au fost introduse treptat în cărțile legale. Dacă au dinții necesari pentru a le susține este o chestiune diferită, precum și dacă aplicarea acelor legi este luată în serios sau este trecută cu vederea (a se vedea coloanele mele pentru analize despre aceasta).

Există și unghiul de înaltă tehnologie în acest sens. Am prezis că vom vedea treptat variante de roboți de înger păzitor AI care vor ieși în prim-plan în arena vehiculelor autonome și a mașinilor cu conducere autonomă. Încă nu suntem acolo. Acest lucru va deveni mai răspândit odată ce popularitatea mașinilor cu conducere autonomă va deveni mai răspândită.

Acest ultim punct aduce o replică celebră despre încredere pe care, fără îndoială, o știi deja pe de rost.

Crede dar verifica.

Ne putem permite să ne extindem încrederea, poate cu generozitate. Între timp, ar trebui să privim ca un șoim pentru a ne asigura că încrederea pe care o generăm este verificată atât prin cuvinte, cât și prin fapte. Să punem puțină încredere în AI, dar să verificăm la nesfârșit că ne punem încrederea în mod corespunzător și cu ochii larg deschiși.

Poți avea încredere în mine pentru asta.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/