Etica inteligenței artificiale se tem cu privire la înrăutățirea asimetriei inteligenței artificiale în contextul că oamenii primesc capătul scurt al stick-ului

Uneori ești la capătul greșit al stick-ului.

Acest colocvial poate fi aplicat noțiunii de asimetrie.

Da, voi vorbi despre asimetrie. Așa cum probabil ați întâlnit în această lume răsturnată în care trăim, există ocazii în care s-ar putea să vă aflați că aveți mai puține cunoștințe despre o chestiune care este relativ importantă pentru dvs. Acest lucru este denumit oficial ca Asimetrie informațională.

Cheia este că aveți mai puține cunoștințe sau informații decât v-ați dori să le aveți, în plus, cu siguranță aveți mai puține decât cealaltă parte implicată în problemă. Sunteți într-un dezavantaj clar în comparație cu cealaltă parte. Ei știu ceva ce tu nu știi. Ei pot valorifica ceea ce știu, în special în ceea ce privește ceea ce nu știți, și pot avea un avantaj în orice deliberări sau negocieri grele cu dvs.

Ei bine, există un copil nou în oraș, cunoscut ca Asimetrie AI.

Acest ultim slogan se referă la posibilitatea ca tu să mergi împotriva cuiva care este înarmat cu AI, în timp ce tu nu ești atât de înarmat.

Ei au AI de partea lor, în timp ce tu te ai, ei bine, doar pe tine. Lucrurile sunt deformate. Sunteți într-un presupus dezavantaj. Cealaltă parte va putea rula în cerc în jurul tău datorită creșterii AI. S-ar putea să fie în faimoasa zicală că totul este corect în dragoste și război (un proverb de mult timp inventat în Euhues de John Lyly, 1578), deși dinamica și pericolele asimetriei IA ridică probleme provocatoare de IA etică. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Înainte de a sărim în tărâmul AI și complexitățile sale abundente în ceea ce privește asimetria AI, să explorăm mai întâi versiunea obișnuită de zi cu zi a asimetriei informaționale. Acest lucru va pregăti scena pentru a intra în proverbialul AI nou puști din bloc.

O poveste scurtă și intenționată iluminatoare îți poate stârni apetitul.

Zilele trecute am patit o anvelopă în timp ce eram pe drum și căutam rapid să găsesc un înlocuitor potrivit care să poată fi instalat imediat. Folosind smartphone-ul meu, m-am uitat online la magazinele de anvelope din apropiere pentru a afla distanța pe care trebuia să o parcurg cu anvelopa de rulare și dacă există magazine deschise. În plus, am făcut o evaluare rapidă a recenziilor clienților lor online și am încercat să aflu ceva util despre cât timp au fost în afaceri și alți factori care ar putea să-și arate meritul.

Când a sunat la unul dintre magazinele de anvelope, funcționarul mi-a oferit o ofertă de preț pentru anvelopă și pentru instalarea acesteia. Anvelopa nu era exact ceea ce aveam in vedere, dar functionarul m-a asigurat ca vor fi singurul magazin din zona care ar putea face treaba imediat. Potrivit funcționarului, niciunul dintre celelalte magazine de anvelope din apropiere nu ar avea astfel de anvelope în stoc și ar fi nevoie de cel puțin o zi pentru ca acești concurenți să obțină o anvelopă potrivită dintr-un depozit semi-depărtat.

Eram în mijlocul unei asimetrii informaționale.

Funcționarul a declarat că știe mai multe despre statutul local al magazinelor de anvelope și în special despre tipul de anvelopă de care aveam nevoie. Eram într-o zonă prin care eram doar în trecere și nu aveam nicio cunoștință de primă mână despre magazinele de anvelope din acea zonă geografică anume. Din câte știam, grefierul a fost perfect și îmi dădea adevărul.

Dar funcţionarul a făcut asta?

Poate ca da poate ca nu.

S-ar putea ca grefierul să creadă cu sinceritate tot ceea ce mi se transmitea. Pentru funcționar, acesta a fost adevărul. Sau poate că funcționarul întindea oarecum adevărul. Era posibil ca ceea ce se spunea să fie adevărat, deși modul în care era descris implica că acesta era adevărul absolut și de necontestat. Desigur, ar fi putut fi, de asemenea, o nebunie completă, iar funcționarul a fost doar șiling pentru ca magazinul de anvelope să-mi adună afacerea. Ar fi putut exista un comision suculent?

Îndrăznesc să spun că nimănui nu-i place să fie într-o poziție atât de nefavorabilă.

Miza situației este un factor vital în cât de mult contează o asimetrie informațională. Dacă întrebarea la îndemână este una de natură pe viață sau pe moarte, să fii în cușă și să te bazezi pe cealaltă parte pentru ceea ce știu sau pretind că cunoaște este o postură sommară și extrem de nedorită. Când miza este mică. , cum ar fi să vă comandați cina într-un restaurant și serverul vă spune că preparatul cu pește este delicios, dar nu ați mâncat niciodată acolo până acum și sunteți subinformat, puteți merge de acord cu acest minim de asimetrie informațională fără prea multă neliniște (I să presupunem de asemenea că pariezi că serverul nu ar risca să dea sfaturi acru și să rateze un bacșiș decent).

Revenind la povestea anvelopelor uzate (un joc de cuvinte!), nu aș fi avut nicio modalitate instantanee de a-mi da seama dacă funcționarul îmi dădea informații fiabile și informative. S-ar putea să vă întrebați ce s-a întâmplat. Am decis să dau apeluri la câteva dintre celelalte magazine de anvelope din apropiere.

Ești pregătit pentru ceea ce am descoperit?

Toate celelalte magazine de anvelope aveau anvelopa dorită în stoc și nu aveau de gând să încerce să mă convingă să iau o anvelopă diferită (cum a încercat să facă primul funcționar). Ei ar putea, de asemenea, să facă munca în același interval de timp ca primul magazin de anvelope pe care probabil l-am sunat. La aproximativ același preț.

Un oftat de uşurare binevenit a apărut din partea mea, vă asigur.

În mod ironic, în Legea lui Murphy a ghinionului, primul loc pe care l-am contactat a fost singurul care părea să fie afară la prânz, parcă. Mă bucur că am căutat să obțin mai multe informații. Acest lucru a redus decalajul de asimetrie informațională. M-am aplaudat pentru că m-am lipit de armele mele și nu am acceptat primul loc pe care l-am sunat.

Acestea fiind spuse, a existat un anumit cost implicat în obținerea de informații suplimentare. Am efectuat aproximativ patru apeluri, fiecare dintre ele a durat aproximativ cincisprezece până la douăzeci de minute. În acest sens, am folosit aproximativ o oră și jumătate în timp ce mă gândeam unde să-mi iau mașina. Dacă mi-aș fi dus imediat mașina pe primul loc, noua anvelopă ar fi fost aproape pe mașina mea până atunci. Pe de altă parte, aproape sigur, mai târziu, aș fi regretat decizia rapidă pe care am luat-o în timp ce mă aflau într-o legătură stricată de asimetrie a informațiilor.

Uneori trebuie să strângi din dinți și să iei temuta Asimetrie Informațională așa cum apare. Speri doar că orice decizie ai lua, va fi suficient de bună. S-ar putea să nu fie o decizie „perfectă” și ulterior ai putea regreta alegerea făcută. Celălalt unghi este că ați putea încerca să vă întăriți partea ecuației informaționale, deși acest lucru nu este neapărat gratuit și ar putea, de asemenea, să consumați timp prețios, în funcție de faptul că timpul prețuit este esențial.

Acum că sunteți, fără îndoială, mângâiat să știți că mașina mea funcționează bine cu anvelopa ei nouă și corectă, pot trece la apariția asimetriei AI.

Luați în considerare o poveste AI despre vai.

Cauți să obțineți un împrumut pentru casă. Există un analizor online de cereri de credit ipotecar pe care îl folosește o anumită bancă. Sistemul online folosește capabilitățile avansate AI de astăzi. Nu este nevoie să vorbiți cu un agent care acordă împrumuturi umane. AI face totul.

Sistemul AI vă ghidează printr-o serie de solicitări. Completați cu respect formularele și răspundeți sistemului AI. Acest AI este foarte vorbăreț. În timp ce ați putea fi folosit în trecut un sistem de formulare convențional bazat pe computer, această variantă AI seamănă mai mult cu interacțiunea cu un agent uman. Nu chiar, dar suficient încât aproape să începi să crezi că un om era de cealaltă parte a acestei activități.

După ce ai făcut tot posibilul să „discuți” cererea ta cu acest AI, în final, te informează că, din păcate, cererea de împrumut nu este aprobată. Îți cam înțeleg că AI pare să-și ofere scuze, de parcă AI ar fi vrut să aprobe împrumutul, dar acei oameni răutăcioși care supraveghează banca nu vor lăsa AI să facă acest lucru. Pentru acoperirea mea despre cât de înșelătoare sunt aceste tipuri de presupuse scuze AI, vezi linkul aici.

Nu știți de ce ați fost refuzat. AI nu oferă nicio explicație. Poate că AI a făcut o greșeală sau a greșit calculele sale. Mai rău, să presupunem că AI a folosit unele considerații extrem de discutabile, cum ar fi rasa sau sexul dvs. atunci când a decis cu privire la împrumut. Tot ceea ce știi este că părea că ți-ai pierdut timpul și, de asemenea, între timp ai predat o mulțime de date private AI și băncii. AI-ul lor te-a depășit.

Acesta ar fi etichetat ca un exemplu de asimetrie AI.

Ai fost tu împotriva băncii. Banca era înarmată cu AI. Nu erai la fel de înarmat. Aveai inteligența și școala ta de înțelepciune, dar nicio inteligență artificială nu locuiește în buzunarul din spate. Mintea împotriva unei mașini. Din păcate, aparatul a câștigat în acest caz.

Ce să faci?

În primul rând, trebuie să realizăm, pe o bază societală, că această asimetrie AI crește și devine aproape omniprezentă. Oamenii se confruntă cu AI în toate sistemele cu care interacționăm zilnic. Uneori AI este singurul element cu care interacționăm, cum ar fi în acest exemplu despre cererea de împrumut. În alte cazuri, un om ar putea fi în bucla care se bazează pe AI pentru a-l ajuta în efectuarea unui anumit serviciu. Pentru împrumut, s-ar putea ca banca să te pună să vorbești cu un agent uman în loc să interacționezi cu AI, dar pentru care agentul uman folosește un sistem informatic pentru a accesa AI care îl ghidează pe agentul uman în timpul procesului de solicitare a împrumutului (și, aproape întotdeauna ești sigur că agentul uman se comportă ca și cum ar fi întemnițat, fiind nevoit să facă strict tot ceea ce AI „le spune să facă”).

Oricum, AI este încă în amestec.

În al doilea rând, trebuie să încercăm să ne asigurăm că asimetria AI se realizează cel puțin pe o bază etică AI.

Permiteți-mi să explic această remarcă aparent ciudată. Vedeți, dacă putem fi oarecum siguri că AI acționează într-o manieră solidă din punct de vedere etic, s-ar putea să ne liniștim cu privire la asimetria care este în joc. Pe o bază oarecum analogă, dar și vagă, ați putea spune că, dacă interacțiunea mea cu primul funcționar al magazinului de anvelope ar fi fost puse în aplicare și aplicate niște linii directoare etice stridente, poate nu mi s-ar fi spus povestea care mi s-a spus, sau cel puțin s-ar putea să nu fi trebuit să caut imediat să descopăr dacă mi se dădea o poveste înaltă.

Voi explica mai multe despre Etica AI într-un moment.

În al treilea rând, ar trebui să căutăm modalități de a reduce asimetria AI. Dacă ai avut AI care a fost de partea ta, străduindu-te să fii antrenorul sau protectorul tău, s-ar putea să poți folosi acea IA pentru a face unele contrapuncturi cu cealaltă IA cu care te înfrunți. După cum se spune, uneori are sens să lupți cu focul.

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza Asimetriei AI, să stabilim câteva elemente fundamentale suplimentare pe subiecte profund esențiale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a afirmat mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să revenim la concentrarea pe asimetria AI.

O scurtă recapitulare despre cele trei recomandări identificate mai sus menționate este aceasta:

1) Deveniți conștienți de faptul că asimetria AI există și este în creștere

2) Încercați să vă asigurați că asimetria AI este limitată de Etica AI

3) Încearcă să te lupți cu asimetria AI, înarmandu-te cu AI

Vom arunca o privire mai atentă asupra ultimului punct al combaterii focului cu focul.

Imaginați-vă că atunci când căutați să obțineți un împrumut, aveți inteligență artificială care lucra de partea dvs. a efortului. Aceasta ar putea fi o aplicație bazată pe inteligență artificială pe smartphone-ul dvs., care a fost concepută pentru a obține împrumuturi. Nu este o aplicație a uneia dintre bănci și, în schimb, este concepută independent pentru a acționa în numele tău. Am detaliat aceste tipuri de aplicații în cartea mea despre roboții îngerii păzitori bazați pe inteligență artificială, vezi linkul aici.

La solicitarea unui împrumut, s-ar putea să vă referiți la această aplicație pe măsură ce sunteți pasat prin procesul de solicitare de către celălalt AI. Aceste două sisteme AI sunt distincte și complet separate unul de celălalt. AI de pe smartphone-ul tău a fost „antrenat” să cunoască toate trucurile folosite de celălalt AI. Ca atare, răspunsurile pe care le introduceți în AI-ul băncii se vor baza pe ceea ce vă sfătuiește AI.

O altă variantă constă în AI-ul tău să răspundă la întrebările puse de celălalt AI. Din câte poate constata celălalt AI, tu ești cel care introduci răspunsurile. În schimb, s-ar putea să urmăriți doar cum au loc interacțiunile dintre cele două sisteme AI care se luptă. Acest lucru vă permite să vedeți ce vă oferă AI. În plus, vă puteți ajusta AI în funcție de dacă sunteți mulțumit de ceea ce face AI în numele dvs.

Am prezis că toți vom deveni treptat înarmați cu AI care va fi de partea noastră în aceste situații de asimetrie a AI.

Să ne gândim cum va funcționa asta.

Acestea sunt impacturile de piatră de temelie asupra condiției de asimetrie AI pe care le-am expus:

  • Aplatizarea asimetriei AI în favoarea ta (aducându-te în sus, sperând să ajungi la niveluri egale)
  • Stimulează o asimetrie AI în favoarea ta (a te ridica la un avantaj când deja sunteți egali)
  • Creșterea unei asimetrii AI în favoarea ta extraordinară (obținerea unui avantaj mai larg atunci când este deja un avantaj)
  • Subcotarea involuntară a asimetriei AI în favoarea dumneavoastră (când ai avut un avantaj preexistent și AI te-a tras în jos din greșeală)

Este timpul să faceți o scufundare profundă în aceste posibilități interesante.

Aplatizarea asimetriei AI în favoarea dvs

Aplatizarea asimetriei AI este cel mai evident și cel mai des discutat considerent, și anume că te-ai înarma cu AI pentru a încerca să mergi în față cu AI-ul folosit de cealaltă parte în problema în discuție. Setarea Asimetriei AI a început cu dvs. cu un dezavantaj hotărât. Nu aveai AI în colțul tău. Ai fost pe partea de jos a lucrurilor. Cealaltă parte avea inteligență artificială și erau pe un teren mai înalt.

Astfel, te-ai înarmat cu înțelepciune cu AI care ar avea ca scop să te pună pe tine și pe cealaltă IA în condiții egale.

O nuanță importantă și poate surprinzătoare de reținut este că nu va fi întotdeauna cazul ca sistemele AI folosite să se echilibreze între ele în mod egal. S-ar putea să vă înarmați cu IA, adică mai puțin puternică decât AI pe care o folosește cealaltă parte. În acest caz, ți-ai crescut poziția dezavantajoasă, din fericire, deși acum nu ești complet egal cu cealaltă parte și AI-ul ei.

De aceea mă refer la aceasta ca aplatizarea asimetriei AI. S-ar putea să reușești să restrângi decalajul, deși nu să îl închizi complet. Scopul final ar fi să folosești AI de partea ta, care te va aduce la o poziție complet egală. Chestia este că acest lucru ar putea fi sau nu fezabil. Cealaltă parte ar putea avea o inteligență artificială foarte scumpă și tu încerci să concurezi cu versiunea AI economică pentru mamă și pop.

Nu toate AI sunt la fel.

Stimularea unei asimetrii AI în favoarea ta

Această împrejurare nu este ceva foarte discutat astăzi, parțial pentru că este rară în acest moment. Într-o zi, asta va fi obișnuit. Ideea este că presupunem că sunteți fără AI și totuși pe teren egal cu partea care are AI.

Bine pentru tine.

Oamenii au inteligența lor despre ei.

Dar poate doriți să obțineți un avantaj față de cealaltă parte. Înarmarea cu inteligență artificială te duce la un nivel mai înalt. Acum ai inteligența ta și AI-ul tău de încredere în mână. Ați câștigat un avantaj care probabil va prevala asupra AI-ului de cealaltă parte.

Creșterea unei asimetrii AI în favoarea ta extraordinară

Folosind o logică similară ca aspectul stimulării unei asimetrii AI în numele dvs., să presupunem că sunteți deja peste capacitățile celeilalte părți care utilizează AI. Ergo, nu începi la o postură egală. Din fericire, ești deja pe partea de sus.

Poate doriți să vă asigurați oricum un avantaj și mai mare. Prin urmare, te înarmezi cu AI. Acest lucru vă duce capul și umerii deasupra celeilalte părți.

Subcotarea accidentală a asimetriei AI în favoarea dvs

Mă îndoiesc că vrei să auzi despre această posibilitate. Vă rugăm să realizați că a face față AI nu este doar trandafiri și prăjituri cu înghețată.

S-ar putea ca atunci când te înarmezi cu inteligență artificială, să te subcutezi de fapt. Dacă erai deja mai puțin decât AI de cealaltă parte, acum te afli într-o gaură mai adâncă. Dacă erai în condiții egale, acum ești dezavantajat. Dacă ai fost deasupra celeilalte părți, acum ești egal sau sub ea.

Cum s-ar putea întâmpla asta?

S-ar putea să fii șocat să te gândești că IA pe care o adopti te va duce în rătăcire. Acest lucru s-ar putea întâmpla cu ușurință. Doar pentru că ai AI în colțul tău nu înseamnă că este util. Este posibil să utilizați AI și vă oferă sfaturi pe care nu le considerați neapărat potrivite, dar oricum decideți să mergeți cu ea. Logica ta la acea vreme era că, din moment ce te-ai dat de cap să obții AI, ai putea la fel de bine să depinzi de ea.

AI pe care îl utilizați ar putea fi defect. Sau poate fi prost conceput. Există o mulțime de motive pentru care AI-ul s-ar putea să vă ofere sfaturi nesigure. Cei care acceptă orbește orice spune AI-ul să facă sunt obligați să se treacă într-o lume a rănirii. Am acoperit astfel de probleme în rubrica mea, cum ar fi linkul aici.

Concluzia este că nu există absolut nicio garanție că doar pentru că te înarmezi cu AI vei câștiga la jocul AI Asymmetry.

S-ar putea să ajungeți la condiții echitabile. S-ar putea să câștigi un avantaj. Și, din păcate, trebuie să fii precaut, deoarece s-ar putea să te scufunzi la niveluri în jos atunci când ești înarmat cu AI.

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial. Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vital pentru producerea AI adecvată.

Pe lângă utilizarea eticii AI, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. De fapt, ei avertizează că, dacă vom pune în aplicare unele dintre aceste legi AI, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense. Vezi, de exemplu, acoperirea mea la linkul aici și linkul aici.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre asimetria AI și, dacă da, ce arată acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini autonome și asimetrie AI

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Să schițăm un scenariu care prezintă asimetria AI.

Gândiți-vă la problema aparent lipsită de importanță a locului în care mașinile cu conducere autonomă vor circula pentru a prelua pasageri. Acesta pare a fi un subiect extrem de inofensiv.

La început, presupuneți că mașinile autonome cu inteligență artificială vor circula prin orașe întregi. Oricine dorește să solicite o plimbare cu o mașină autonomă are, în esență, șanse egale de a primi una. Treptat, AI începe să mențină în primul rând mașinile cu conducere autonomă în roaming într-o singură secțiune a orașului. Această secțiune este un generator de bani mai mare și AI a fost programat să încerce și maximaliza veniturile ca parte a utilizării în comunitatea în general (acest lucru subliniază mentalitatea care stă la baza optimizării, și anume concentrarea doar pe o anumită măsură și neglijarea altor factori cruciali în proces).

Membrii comunității din zonele sărace ale orașului se dovedesc a fi mai puțin probabil să poată obține o plimbare cu o mașină care se conduce singur. Acest lucru se datorează faptului că mașinile care se conduceau singure erau mai departe și circulau în partea cu venituri mai mari a orașului. Când o solicitare vine dintr-o parte îndepărtată a orașului, orice altă solicitare dintr-o locație mai apropiată va primi o prioritate mai mare. În cele din urmă, disponibilitatea de a obține o mașină cu conducere autonomă în orice alt loc decât în ​​partea mai bogată a orașului este aproape imposibilă, în mod exasperant pentru cei care locuiau în acele zone acum lipsite de resurse.

Iese din lăudat visele de mobilitate pentru toți pe care ar trebui să le aducă la viață mașinile cu conducere autonomă.

Ați putea afirma că IA a aterizat în totalitate pe o formă de părtinire statistică și computațională, asemănătoare unei forme de discriminare prin proxy (denumită și discriminare indirectă). Realizează că IA nu a fost programată pentru a evita acele cartiere mai sărace. Să fim clari despre asta în acest caz. Nu, a fost conceput în schimb doar pentru a optimiza veniturile, un obiectiv aparent acceptabil, dar acest lucru s-a făcut fără ca dezvoltatorii AI să se gândească la alte potențiale ramificații. Acea optimizare a dus, la rândul său, fără să vrea și inevitabil, la un rezultat nedorit.

Dacă ar fi inclus considerente de etică AI ca parte a mentalității lor de optimizare, ar fi putut realiza în prealabil că, dacă nu au creat IA pentru a face față acestui tip de supradimensionare doar pe o singură măsură, ar fi evitat astfel de rezultate dure. Pentru mai multe despre aceste tipuri de probleme pe care ar putea să le aducă adoptarea pe scară largă a vehiculelor autonome și a mașinilor cu conducere autonomă, consultați acoperirea mea la acest link aici, descriind un studiu condus de Harvard pe care l-am coautor pe aceste subiecte.

În orice caz, să presupunem că calul a ieșit deja din hambar și situația nu este imediat susceptibilă de soluții generale.

Ce ar putea face cei care doresc să folosească acele mașini cu conducere autonomă?

Cea mai evidentă abordare ar fi să colaborăm cu liderii comunității pentru a convinge producătorul de automobile sau firma de tehnologie de conducere autonomă să reconsidere modul în care au configurat AI. Poate pune presiune asupra oricăror licențe sau permise care au fost acordate pentru instalarea acelor mașini cu conducere autonomă în acel oraș sau oraș. Acestea sunt probabil mijloace viabile de a aduce schimbări pozitive, deși ar putea dura ceva timp până când aceste eforturi să dea roade.

Un alt unghi ar fi să te înarmezi cu AI.

Imaginați-vă că cineva a conceput inteligent o aplicație bazată pe inteligență artificială care funcționează pe smartphone-ul dvs. și se ocupă de inteligența artificială a producătorului auto sau a operatorului de flotă care acceptă cererile de călătorie. S-ar putea ca IA pe care o utilizați să exploateze elemente cheie ale celeilalte AI, astfel încât solicitarea unei mașini cu conducere autonomă de către dvs. să primească o prioritate sporită. Rețineți că nu sugerez că are loc ceva ilegal, ci că IA de partea dvs. a fost dezvoltată pe baza „trăsăturilor” descoperite sau chiar lacune în cealaltă IA.

Concluzie

Povestea despre lupta cu nerăbdare împotriva inteligenței artificiale a operatorului de flotă de mașini cu conducere autonomă, înarmandu-se cu inteligență artificială, aduce alte controverse și considerații de etică a inteligenței artificiale.

De exemplu:

  • Dacă o persoană poate folosi AI pentru a-i oferi un avantaj față de AI al unui alt sistem, cât de departe poate merge acest lucru în ceea ce privește eventuala depășire a granițelor eticii AI (conving mașinile care se conduc singure să vină la mine și la prietenii mei, cu excluderea tuturor celorlalte)?
  • De asemenea, există vreo considerație de etică a AI conform căreia, dacă cineva știe despre sau este înarmat cu AI pentru a lupta cu alte AI, dacă acei oameni rămași care nu au această IA de echilibrare ar fi cumva alertați de AI și să se poată înarma singuri? in consecinta si?

În cele din urmă, toate acestea ne duc către un viitor care pare ciudat, constând într-o cursă a înarmărilor AI. Cine va avea IA de care au nevoie pentru a se deplasa și a supraviețui și cine nu o va avea? Va mai exista întotdeauna o IA care să apară și să provoace nevoia unei IA de contrabalansare?

Carl Sagan, veneratul om de știință, a oferit această înțelepciune înțeleaptă despre cursele înarmărilor în special cataclismice: „Cursa înarmărilor nucleare este ca doi dușmani jurați stând până la talie în benzină, unul cu trei chibrituri, celălalt cu cinci”.

Trebuie să ne propunem cu hotărâre să ne menținem picioarele uscate și capetele libere atunci când vine vorba de o cursă de înarmări AI care se profilează mereu.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- din-băţ/