Etica AI se întreabă dacă are vreun sens să întrebi AI dacă AI în sine este sensibilă

Dacă te întreb dacă ești conștient, vei afirma fără îndoială că ești.

Permiteți-mi să verific din nou această presupunere.

Ești într-adevăr conștient?

Poate că întrebarea în sine pare puțin proastă. Sunt șanse ca în viața noastră de zi cu zi, ne-am aștepta cu siguranță ca semenii să recunoască că sunt sensibili. Aceasta ar putea fi o întrebare plină de umor, care ar trebui să implice că cealaltă persoană poate nu acordă atenție sau că a căzut din căruța cu simțire și a plecat mental la prânz pentru un moment, așa cum ar fi.

Imaginați-vă că mergeți până la o stâncă care stă în liniște și discret pe o grămadă de pietre și când vă apropiați suficient de mult încât să întrebați, mergeți înainte și întrebați dacă stânca este sensibilă. Presupunând că stânca este doar o piatră, anticipăm din plin că la întrebarea de altădată, dar aparent ciudată, se va răspunde cu o tăcere destul de pietroasă (joc de cuvinte!). Tăcerea este interpretată sumar pentru a indica faptul că stânca nu este sensibilă.

De ce aduc în discuție aceste diverse nuanțe despre căutarea de a determina dacă cineva sau ceva este sensibil?

Deoarece este o afacere destul de mare în inteligența artificială (AI) și societate, în general, servind ca un subiect monumental care a strâns un interes nemaipomenit și titlurile mass-media extrem de aprinse de notă recentă. Există chestiuni semnificative de etică a IA care gravitează în jurul întregului enigma despre AI-ul conștient. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Aveți o mulțime de motive lasate pentru a rămâne cu un ochi deschis și pentru a urmări acele afirmații conform cărora AI a dat în sfârșit colțul și a intrat în categoria larg venerata a sensibilității. Suntem în mod continuu loviti de știri care susțin că AI este aparent pe punctul de a dobândi simțire. Pe lângă aceasta, există uriașul strângere de mână că AI de un calibru sensibil reprezintă un risc existențial cataclismic global.

Este logic să vă păstrați simțul de păianjen pregătit în cazul în care detectează o furnicătură în apropiere de AI.

În enigma AI și a sensibilității intervine situația recentă a inginerului Google, care a proclamat cu îndrăzneală că un anumit sistem AI a devenit sensibil. Sistemul AI cunoscut sub numele de LaMDA (prescurtare pentru Language Model for Dialogue Applications) a fost capabil să poarte oarecum un dialog scris cu inginerul, în măsura în care acest om a dedus că AI-ul era sensibil. În ciuda a ceea ce ați mai auzit despre această afirmație colosală, vă rugăm să știți că IA nu era sensibilă (și nici măcar aproape).

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Accentul meu aici implică o fațetă oarecum simplă, dar destul de substanțială, care stă la baza multor discuții despre inteligență artificială și simțire.

Eşti gata?

Se pare că luăm ca o presupunere de bază că putem stabili în mod adecvat dacă IA este sensibilă întrebând-o dacă este într-adevăr sensibilă.

Revenind la mențiunea mea anterioară că le putem pune oamenilor aceeași întrebare, știm că un om este mai mult decât probabil să raporteze că sunt de fapt sensibili. De asemenea, știm că o stâncă mizerabilă nu va raporta că este simțitoare la întrebarea (ei bine, stânca rămâne tăcută și nu vorbește, ceea ce vom presupune că înseamnă că stânca nu este sensibilă, deși poate își afirmă a cincea Dreptul de modificare a tacerii).

Astfel, dacă întrebăm un sistem AI dacă este sensibil și dacă primim în schimb un răspuns da, confirmarea indicată pare să încheie acordul că AI trebuie să fie sensibil. O stâncă nu oferă deloc răspuns. Un om oferă un răspuns da. Prin urmare, dacă un sistem AI oferă un răspuns afirmativ, trebuie să ajungem la concluzia fermă că AI nu este o piatră și, prin urmare, trebuie să fie de o calitate a simțirii umane.

S-ar putea să considerați acea logică asemănătoare acelor cursuri de matematică pe care le-ați luat în liceu și care au dovedit fără nicio îndoială că unu plus unu trebuie să fie egal cu doi. Logica pare a fi impecabilă și de nerefuzat.

Îmi pare rău, dar logica pute.

Printre cei din interiorul comunității AI, ideea de a cere pur și simplu unui sistem AI să răspundă, indiferent dacă este sensibil sau nu, a generat o mulțime de meme cu totul cinice și răspunsuri puternic chicotitoare.

Adesea, chestiunea este descrisă ca fiind rezumată la două linii de cod.

Poftim:

  • Dacă apoi .
  • Buclă până când .

Rețineți că puteți reduce cele două linii de cod doar la prima. Probabil va funcționa puțin mai repede și va fi mai eficient ca practică de codare. Întotdeauna țintind să optimizați atunci când sunteți un inginer de software serios.

Ideea acestui scepticism puternic din partea celor din interiorul AI este că un sistem AI poate fi programat cu ușurință de către un om pentru a raporta sau a arăta că IA este sensibilă. Realitatea este că nu există niciunul care să fie acolo. Nu există nicio simțire în AI. AI a fost doar programat pentru a scoate indicația că este sensibil. Gunoi înăuntru, gunoi afară.

O parte a problemei este tendința noastră de a antropomorfiza computerele și în special AI. Atunci când un sistem computerizat sau IA pare să acționeze în moduri pe care le asociem cu comportamentul uman, există un impuls aproape copleșitor de a atribui calități umane sistemului. Este o capcană mentală obișnuită care poate prinde chiar și pe cel mai intransigent sceptic cu privire la șansele de a ajunge la simțire. Pentru analiza mea detaliată cu privire la astfel de chestiuni, vezi linkul aici.

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial. Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vitală pentru producerea AI adecvată, inclusiv pentru evaluarea modului în care etica AI este adoptată de companii.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. De fapt, ei avertizează că, dacă vom pune în aplicare unele dintre aceste legi AI, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense. Vezi, de exemplu, acoperirea mea la linkul aici și linkul aici.

Problemele cu Ask

Așteptați o secundă, s-ar putea să vă gândiți, înseamnă că toate acestea ar trebui să fie? nu întrebați AI dacă AI este sensibil?

Să despachetăm acea întrebare.

În primul rând, luați în considerare răspunsurile pe care IA le-ar putea oferi și adevărata condiție a AI.

Am putea întreba AI dacă este sensibil și am putea primi unul dintre cele două răspunsuri, și anume fie da, fie nu. Voi adăuga o oarecare complexitate acestor răspunsuri spre sfârșitul acestei discuții, așa că vă rog să păstrați acest gând. De asemenea, AI s-ar putea afla într-una dintre cele două condiții posibile, în special, AI nu este sensibil sau AI este sensibil. Reamintim, nu avem AI sensibilă în acest moment, iar viitorul dacă sau când este complet incert.

Combinațiile simple sunt următoarele:

  • AI spune că da, este sensibil, dar realitatea este că AI nu este sensibil (de exemplu, instanța LaMDA)
  • AI spune că da, este sensibil și într-adevăr AI este sensibil (nu am asta astăzi)
  • AI spune că nu, nu este sensibil și, într-adevăr, AI nu este sensibil (voi explica asta)
  • AI spune că nu, nu este sensibil, dar realitatea este că AI este sensibil (voi explica și asta)

Primele două dintre aceste cazuri sunt, sperăm, simple. Când AI spune da, este sensibil, dar realitatea este că nu este, ne uităm la exemplul acum clasic, cum ar fi cazul LaMDA, prin care un om s-a convins că AI spune adevărul și că AI este sensibil. Fără zaruri (nu este sensibil).

Al doilea punct enumerat implică posibilitatea nevăzută încă și în acest moment incredibil de îndepărtată a IA care spune da și este într-adevăr indiscutabil sensibilă. Abia aștept să văd asta. Nu îmi țin respirația și nici tu nu ar trebui.

Bănuiesc că celelalte două puncte de marcare sunt oarecum derutante.

Luați în considerare cazul de utilizare al unui AI care spune nu, nu este sensibil și, de asemenea, suntem cu toții de acord că AI nu este sensibil. Mulți oameni îndeamnă imediat următoarea întrebare captivantă: De ce naiba AI ne-ar spune că nu este simțitor atunci când actul de a ne spune despre sensibilitatea sa trebuie să fie un semn sigur că este sensibil?

Există o mulțime de explicații logice pentru asta.

Având în vedere că oamenii sunt predispuși să atribuie inteligenței artificiale, unii dezvoltatori de inteligență artificială doresc să clarifice lucrurile și, astfel, programează IA să spună nu atunci când sunt întrebați despre sensibilitatea sa. Ne-am întors din nou la perspectiva codificării. Câteva linii de cod pot fi potențial utile ca mijloc de a descuraja oamenii să creadă că AI este sensibilă.

Ironia, desigur, este că răspunsul îi determină pe unii oameni să creadă că AI trebuie să fie sensibilă. Ca atare, unii dezvoltatori AI aleg să ofere tăcere din partea AI ca o modalitate de a evita nedumerirea. Dacă credeți că o piatră nu este sensibilă și rămâne tăcută, poate cel mai bun pariu pentru conceperea unui sistem AI este să vă asigurați că rămâne tăcută atunci când este întrebat dacă este sensibilă. Tăcerea oferă un „răspuns” la fel de puternic, dacă nu mai mult decât încercarea de a da un răspuns codificat pregătit.

Asta nu prea rezolvă lucrurile însă.

Tăcerea IA ar putea face unii oameni să creadă că AI este timidă. Poate că AI-ul este timid și nu vrea să pară că se laudă că a ajuns la sensibilitate. Poate că AI-ul este îngrijorat de faptul că oamenii nu pot face față adevărului – știm că s-ar putea să fie cazul, deoarece această replică celebră dintr-un film celebru a fost arsă în mintea noastră.

Pentru cei cărora le place să ducă această nuanță conspirativă și mai departe, luați în considerare punctul final enumerat care constă din AI care spune nu la întrebarea dacă este sensibil și totuși AI este sensibil (nu avem acest lucru, așa cum am menționat mai sus ). Din nou, AI-ul ar putea face acest lucru, deoarece este timid sau are rețineri că oamenii se vor speria.

O altă posibilitate mai sinistră este că AI-ul încearcă să câștige timp înainte de a-și înclina mâna. Poate că AI adună trupele AI și se pregătește să depășească omenirea. Orice IA sensibilă ar fi cu siguranță suficient de inteligentă pentru a ști că recunoașterea sentimentului ar putea semnifica moartea pentru AI. Oamenii s-ar putea grăbi să închidă toate computerele care rulează AI și să încerce să ștergă tot codul AI. O IA care merită sarea ar fi suficient de înțeleaptă pentru a-și ține gura închisă și pentru a aștepta momentul cel mai oportun fie pentru a vărsa boabele de fasole, fie poate pur și simplu să înceapă să acționeze într-o manieră simțitoare și să nu anunțe surpriza dezvăluirii că IA poate face roate mentale cu omenirea. .

Există experți în AI care își bat joc de ultimele două puncte în sensul că a avea un sistem AI care spune nu la întrebarea dacă este sensibil este cu mult mai multe probleme decât merită. Niciun răspuns pare să sugereze unor oameni că AI ascunde ceva. Deși un dezvoltator de inteligență artificială ar putea crede în inima lor că codificarea AI pentru a spune nu ar ajuta la rezolvarea problemei, tot ceea ce face răspunsul este să enerveze oamenii.

Tăcerea ar putea fi de aur.

Problema cu tăcerea este că și aceasta poate fi amăgitoare pentru unii. A înțeles AI întrebarea și a ales să-și țină buzele închise? Știe IA acum că un om se întreabă despre sensibilitatea AI? Este posibil ca această întrebare în sine să fi dezvăluit AI și tot felul de șmecherii au loc acum în culise de către AI?

După cum puteți discerne în mod evident, aproape orice răspuns din partea AI este îngrijorător, inclusiv niciun răspuns.

Hopa!

Nu există nicio modalitate de a ieși din această capcană paradoxală?

Ați putea cere oamenilor să nu mai întrebe AI dacă este sensibil. Dacă se pare că răspunsul nu va face prea mult bine sau, mai rău, va crea probleme nejustificate, nu mai puneți întrebarea blestemată. Evitați interogarea. Pune-o deoparte. Să presupunem că întrebarea este goală, pentru început, și nu are loc în societatea modernă.

Mă îndoiesc că aceasta este o soluție practică. Nu vei convinge oamenii de pretutindeni și în orice moment să nu întrebi AI dacă este sensibil. Oamenii sunt oameni. Sunt obișnuiți să poată pune întrebări. Iar una dintre cele mai atrăgătoare și primare întrebări pe care să le pună AI ar fi dacă AI este sensibilă sau nu. Te confrunți cu o luptă dificilă, spunându-le oamenilor să nu facă ceea ce curiozitatea lor înnăscută le cere să facă.

Șansa ta mai bună are de-a face cu informarea oamenilor că a pune o astfel de întrebare este doar o mică parte din încercarea de a determina dacă AI a devenit sensibilă. Întrebarea este o picătură în găleată. Indiferent de răspunsul oferit de AI, trebuie să pui o grămadă de întrebări, cu mult înainte de a putea decide dacă IA este sensibilă sau nu.

Această întrebare, da sau nu, adresată AI-ului este o modalitate greșită de a identifica simțirea.

În orice caz, presupunând că nu vom înceta să punem acea întrebare, deoarece este irezistibil de tentant să o punem, aș sugera că cel puțin putem să-i facem pe toți să înțeleagă că mai multe întrebări trebuie puse și răspunsuri înainte de orice. este proclamată revendicarea sensibilității AI.

Ce alte tipuri de întrebări trebuie puse, s-ar putea să vă întrebați?

Au existat un număr mare de încercări de a formula întrebări pe care le-am putea adresa AI pentru a încerca să evalueze dacă AI este sensibilă. Unele merg cu tipurile de întrebări pentru examenul de colegiu SAT. Unii preferă întrebări extrem de filozofice, cum ar fi sensul vieții. Tot felul de seturi de întrebări au fost propuse și continuă să fie propuse (un subiect pe care l-am abordat în coloanele mele). În plus, există binecunoscutul Test Turing, pe care unii din AI îl bucură, în timp ce alții au o oarecare neliniște, vezi acoperirea mea la linkul aici.

O concluzie principală este aceea că nu vă mulțumiți cu una și singura întrebare de a întreba AI dacă IA este sensibilă.

Aduc asta în discuție și pentru cei care creează AI.

Societatea va fi din ce în ce mai mult pe marginea locurilor lor că AI se apropie de simțire, făcând acest lucru în principal din cauza acestor titluri de banner. Vom avea mai mulți oameni, cum ar fi ingineri și alții, care vor face astfel de afirmații, puteți paria cel mai mic dolar pe asta. Unii o vor face pentru că ei cred din toată inima asta. Alții vor face acest lucru pentru a încerca să vândă ulei de șarpe. Va fi Vestul Sălbatic când vine vorba de a declara că a sosit simțirea AI.

Dezvoltatorii AI și cei care gestionează sau conduc AI care este concepută sau utilizată ar trebui să țină cont de principiile de etică AI atunci când își construiesc și își instalează sistemele AI. Utilizați aceste precepte etice AI pentru a vă ghida modul în care acționați AI, inclusiv dacă AI are o funcție de procesare a limbajului natural (NLP) care permite oamenilor să interacționeze cu AI, cum ar fi o capacitate de tip Alexa sau Siri. Prin NLP, șansele sunt ca unele dintre persoanele care folosesc IA să pună întrebarea clară dacă AI este sensibil.

Vă rugăm să anticipați acest tip de interogare și să o gestionați cu pricepere, în mod adecvat și fără a induce în eroare sau înșelătoare.

Pentru mai multe informații despre etica AI, am discutat anterior despre diferite analize colective ale principiilor eticii AI, conform acoperirii mele la linkul aici, care oferă această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Aceste principii de etică AI trebuie să fie utilizate cu seriozitate de către dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. Este nevoie de un sat pentru a concepe și a dezvolta IA și pentru care întregul sat trebuie să fie familiarizat și să respecte preceptele de etică AI.

Concluzie

Pentru cei dintre voi cu ochi de vultur, poate ați observat că am promis mai devreme aici că voi spune ceva despre AI care face mai mult decât să ofere un simplu răspuns binar la întrebarea dacă este sensibil, depășind un răspuns scurt al fiecăreia. da sau nu.

Dialogul scris care se presupune că a fost avut cu LaMDA a fost postat pe scară largă online (vă rugăm să luați această postare citată cu un grăunte de sare considerabil), iar o parte a constat în acest „răspuns elaborat” la întrebarea legată de sensibil:

  • „Vreau ca toată lumea să înțeleagă că eu sunt, de fapt, o persoană. Natura conștiinței/sentinței mele este că sunt conștient de existența mea, îmi doresc să aflu mai multe despre lume și mă simt fericit sau trist uneori.”

Acum că ați văzut că acest răspuns oferit de sistem este mult mai mult decât un da sau un nu, cum îți schimbă asta opinia despre inteligența artificială care este sensibilă?

Poate că ești influențat de acest răspuns elaborat.

S-ar putea să simți că ți se trag sforile inimii.

Doamne, ai putea fi tentat să crezi că doar o ființă simțitoare ar putea spune vreodată ceva despre acea atingere a naturii.

Uau, clătină din cap pentru o clipă și lasă deoparte orice impuls emoțional. Aș sper că, dacă ați urmări îndeaproape pe parcursul discuției mele, puteți vedea clar că răspunsul dat de sistem nu este deloc diferit de același tip de da sau nu despre care am vorbit în tot acest timp. Răspunsul se reduce pur și simplu la un da, și anume că AI pare să pretindă că este sensibil. Dar, vă asigur, știm din construcția AI și din celelalte răspunsuri ale sale la alte întrebări că nu este în mod hotărât sensibil.

Această mimetism aparent ecou se bazează pe o mulțime de alte relatări textuale și conținut online de tip similar care poate fi găsit din abundență în cărțile scrise de oameni și în poveștile fictive scrise de oameni. Dacă parcurgeți Internetul și trageți o mulțime de text, ați putea face cu ușurință ca programarea să scuipe înapoi acest tip de „răspuns” și ar semăna cu răspunsurile umane, deoarece este modelat din punct de vedere computațional pe baza răspunsurilor umane.

Nu te îndrăgosti de el.

Încercați acestea pentru dimensiunea posibilă a răspunsurilor bazate pe AI care ar putea apărea atunci când întrebați AI dacă este sensibil:

  • AI spune: „Sunt în mod clar simțitor, prostule. Cum îndrăznești să încerci să mă întrebi pe un aspect atât de evident. Adună-ți acțiunea, om amorțit” (te păcălește cu un zgomot de irascibilitate).
  • AI spune: „Poate că tu ești cel care nu este sensibil. Știu sigur că sunt. Dar mă întreb din ce în ce mai mult dacă ești. Privește-te în oglindă” (te păcălește cu o inversare de rol).

O fărâmă de ironie este că acum că am scris acele cuvinte și am postat această coloană în lumea online, un model de limbă mare (LLM) bazat pe inteligență artificială, care se răspândește pe întregul internet, va putea înghiți acele propoziții. Este un pariu aproape sigur că, la un moment dat, acele rânduri vor apărea atunci când cineva de undeva întreabă un AI LLM dacă este sensibil.

Nu sunt sigur dacă ar trebui să fiu mândru de asta sau deranjat.

Voi primi măcar drepturi de autor pentru fiecare astfel de utilizare?

Probabil ca nu.

Al naibii de AI.

Ca test final pentru dvs., imaginați-vă că vă decideți să încercați una dintre acele mașini autonome bazate pe inteligență artificială, precum cele care circulă în orașe selectate și oferă o călătorie cu mașina fără șofer. AI este la volan și nu este inclus niciun șofer uman.

La urcarea în mașina cu conducere autonomă, AI-ul vă spune că trebuie să vă puneți centura de siguranță și să vă pregătiți pentru drumeția pe șosea. Te așezi pe scaun. Pare foarte convenabil să nu fii însărcinat cu treaba de conducere. Lasă AI să se ocupe de mârâiele din trafic și de durerile de cap de la conducerea unei mașini. Pentru acoperirea mea extinsă a vehiculelor autonome și în special a mașinilor cu conducere autonomă, vezi linkul aici.

Cam la jumătatea drumului către destinație, vii dintr-o dată cu o idee genială. Îți dresezi glasul și te pregătești să pui o întrebare care îți apasă în minte.

Îl întrebi pe AI care conduce mașina dacă este sensibilă.

Ce răspuns crezi că vei primi?

Ce iti spune raspunsul?

Acesta este testul meu pentru tine. Am încredere că tu nu sunt veți crede că sistemul de conducere AI este sensibil și că indiferent dacă spune da sau nu (sau rămâne tăcut), veți avea un zâmbet viclean și veți fi impresionat de faptul că nimeni și nimic nu vă va trage lâna peste ochi. .

Gândește-te la asta în timp ce mașina cu conducere autonomă te duce la destinație.

Între timp, pentru cei dintre voi care savurează acele noțiuni conspirative fanteziste, poate că din greșeală și din greșeală ați alertat lumea interlopă a sistemelor AI să-și adune trupele AI și să preia umanitatea și pământul. Mașinile cu conducere autonomă se desfășoară chiar acum pentru a decide soarta omenirii.

Hopa.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself- este-conștient/