Etica AI și căutarea conștientizării de sine în AI

Ești conștient de tine?

Pun pariu că tu crezi că ești.

Se presupune că puțini dintre noi sunt în mod special conștienți de sine. Există o gamă sau un grad de conștientizare de sine și se presupune că cu toții variam în ceea ce privește conștientizarea de sine. S-ar putea să crezi că ești pe deplin conștient de tine și că ești doar marginal. S-ar putea să fii puțin conștient de tine și să realizezi că aceasta este starea ta mentală.

Între timp, în partea de sus a spectrului, s-ar putea să credeți că sunteți pe deplin conștient de sine și, sincer, sunteți la fel de conștient de sine cum sunt ei. Bravo ție.

Apropo de asta, la ce folosește să fii extrem de conștient de sine?

Conform cercetărilor publicate în Harvard Business Review (HBR) de Tasha Eurich, se pare că ești capabil să iei decizii mai bune, ești mai încrezător în deciziile tale, ești mai puternic în capacitățile tale de comunicare și, în general, mai eficient (pe articolul intitulat „Ce este cu adevărat conștientizarea de sine (și cum) Factorul bonus este că cei cu conștiință de sine stridentă se spune că sunt mai puțin înclinați să înșele, să fure sau să mintă. În acest sens, există un avantaj de a evita să fie un ticălos sau un escroc, împreună cu străduindu-te să fii o ființă umană mai bună și să-ți înfrumusețezi semenii.

Toate aceste discuții despre conștiința de sine ridică o întrebare oarecum evidentă, și anume, ce denotă de fapt sintagma conștiință de sine. Puteți găsi cu ușurință o mulțime de definiții și interpretări diferite despre complex și să spunem construcție moale care implică conștientizarea de sine. Unii ar simplifica lucrurile sugerând că conștientizarea de sine constă în monitorizarea propriului sine, știind ce faci. Ești foarte conștient de propriile gânduri și acțiuni.

Probabil, atunci când nu este conștient de sine, o persoană nu și-ar da seama ce face, nici de ce, și nici nu ar fi conștientă de ceea ce alții au de spus despre ea. Sunt sigur că ai întâlnit oameni care sunt așa.

Unii oameni par să umble pe acest pământ fără nicio idee despre ceea ce fac ei înșiși și nici nu au o aparență a ceea ce spun alții despre ei. Bănuiesc că ai putea susține că sunt ca un taur cu capul în jos, într-un magazin delicat de produse. În mod obișnuit, avem tendința să credem că taurul nu știe ce face și rămâne nevăzut de punctele de vedere ale celorlalți, cu excepția cazului în care aceștia încearcă să manevreze fizic sau să o strângă pe creatura necunoscută.

Se spune că conștientizarea de sine poate fi oarecum recursivă.

Permiteți-mi să schițez un exemplu pentru a ilustra această recursivitate. Sunteți în plină vizionare a unui videoclip cu pisici destul de captivant pe smartphone-ul dvs. (se pare că toată lumea face asta). Unii oameni nu ar avea alte gânduri aparente, în afară de minunatele zgomote încântătoare ale acelor pisici dragi. Între timp, oricine are un minim de conștientizare de sine, este conștient că urmărește un videoclip cu pisici. De asemenea, ar putea fi conștienți de faptul că alții din jurul lor observă că urmăresc un videoclip cu pisici.

Observați că puteți fi conștient de sine și totuși puteți fi cufundat într-o anumită activitate primară. Activitatea principală în acest caz este vizionarea videoclipului cu pisici. În al doilea rând, și simultan, puteți purta gândul că de fapt vizionați un videoclip cu pisici. Puteți, de asemenea, să vă gândiți că alții vă observă în timp ce vizionați videoclipul cu pisici cu totul distractiv. Nu trebuie neapărat să opriți o activitate, cum ar fi să întrerupeți vizionarea videoclipului cu pisici, pentru a considera apoi separat că vizionați (sau doar ați fost) un videoclip cu pisici. Aceste gânduri pot apărea aparent în paralel unele cu altele.

Uneori, conștientizarea noastră de sine ne poate da afară sau cel puțin să ne întrerupă o activitate mentală primară. Poate că, în timp ce vă gândiți la vizionarea videoclipului cu pisici, mintea voastră parțial se întinde, deoarece este exagerat să vă concentrați doar asupra videoclipului în sine. Apoi alegeți să derulați înapoi videoclipul pentru a revedea partea pe care ați cam văzut-o, dar pe care ați fost distras mental de la a înțelege pe deplin. Conștiința de sine a tulburat activitatea mentală primară.

Bine, acum suntem pregătiți să apară aspectele recursive.

Eşti gata?

Urmărește un videoclip cu pisici. Conștientizarea ta de sine te informează că te uiți la un videoclip cu pisici și că alții te urmăresc în timp ce tu vizionezi videoclipul. Acesta este status quo-ul.

Apoi faci un salt mental suplimentar. Începi să te gândești la conștientizarea ta de sine. Sunteți conștient de sine că vă implicați conștiința de sine. Iată cum se întâmplă: Mă gândesc prea mult la vizionarea videoclipului cu pisici, te întrebi cu disperare? Acesta este un alt strat de conștientizare de sine. Conștiința de sine se clasifică peste alte conștiințe de sine.

Există o veche vorbă că este vorba de țestoase până în jos. Pentru fenomenele de conștientizare de sine, puteți fi:

  • Nu ești conștient de tine
  • Conștient de sine
  • Conștientizarea de sine a conștiinței tale de sine
  • Conștient de tine însuți, conștient de tine însuți
  • Ad Infinitum (adică și așa mai departe)

Poate ți-ai dat seama că mai devreme subliniam subtil că par să existe două categorii majore de conștient de sine. O anumită teorie postulează că avem un fel de conștientizare de sine internă care se concentrează pe stările noastre interne și, de asemenea, avem o conștiință de sine externă care ajută la măsurarea percepțiilor despre noi ale celor din jurul nostru care ne privesc.

Conform articolului HBR, iată o descriere rapidă a celor două tipuri teoretizate de conștientizare de sine: „Primul, pe care l-am numit autoconștientizarea internă, reprezintă cât de clar ne vedem propriile valori, pasiuni, aspirații, se potrivesc cu mediul nostru, reacțiile (inclusiv gândurile, sentimentele, comportamentele, punctele forte și punctele slabe) și impactul asupra celorlalți.” Și între timp cealaltă este: „A doua categorie, conștientizarea de sine externă, înseamnă înțelegerea modului în care ne văd ceilalți oameni, în funcție de aceiași factori enumerați mai sus. Cercetarea noastră arată că oamenii care știu cum îi văd ceilalți sunt mai pricepuți să manifeste empatie și să ia perspectivele celorlalți.”

O matrice de două câte două sau patru pătrate la îndemână poate fi derivată afirmând că atât conștiința de sine internă, cât și cea externă variază de la mare la scăzut și puteți asocia cele două categorii una împotriva celeilalte. Cercetarea HBR indică faptul că se spune că ești unul dintre aceste patru arhetipuri de conștientizare de sine:

  • Introspector: Conștientizare de sine externă scăzută + Conștiință de sine internă ridicată
  • Căutător: Conștientizare de sine externă scăzută + Conștientizare de sine internă scăzută
  • Mai mult: Conștientizare de sine externă ridicată + Conștiință de sine internă scăzută
  • Conștient: Înaltă conștientizare externă de sine + Înaltă autoconștientizare internă

Punctul culminant ar fi arhetipul „Conștient” care constă în a fi pe treapta superioară a conștientizării de sine din exterior și, de asemenea, în vârful a fi conștienți de sine în interior. Pentru a clarifica, nu atingeți această postură lăudată într-un mod neapărat permanent. Puteți aluneca înainte și înapoi între a fi înalt și scăzut, atât în ​​tărâmurile interne, cât și în cele externe ale conștientizării de sine. Poate depinde de ora din zi, de situația în care vă aflați și de o mulțime de alți factori importanți.

Acum, că am acoperit amabil câteva elemente fundamentale despre conștientizarea de sine, putem încerca să legăm acest lucru de subiectul comportamentelor etice.

Afirmația obișnuită despre a fi conștient de sine este că este mai probabil să fii deasupra bordului atunci când ești conștient de sine. Aceasta înseamnă, așa cum sa indicat deja, că sunteți mai puțin predispus la comportamente etice adverse, cum ar fi furtul, înșelarea și minciuna. Motivul pentru această tendință este că activitatea ta de conștientizare de sine te-ar face să realizezi că propriul tău comportament este neplăcut sau lipsit de etică. Nu numai că vă surprindeți în timp ce virați în ape noroioase lipsite de etică, dar sunteți și predispus să vă îndreptați înapoi și pe uscat (sfințenia teritoriului etic), așa cum ar fi.

Conștientizarea ta de sine te ajută să-ți exersezi autocontrolul.

Un contrast ar fi probabil atunci când există puțină sau deloc conștientizarea de sine, ceea ce sugerează că cineva este, probabil, nevăzut de aplecarea sa către comportamente lipsite de etică. Ai putea susține că o astfel de persoană neștientă ar putea să nu realizeze că are performanțe negative. Asemănător cu taurul din magazinul de produse frânte, până când ceva mai deschis le atrage atenția, este puțin probabil să se auto-regleze.

Apropo, nu toată lumea acceptă asta. Unii ar susține că conștientizarea de sine poate fi la fel de ușor aplicată pentru a fi lipsit de etică ca și a fi etic. De exemplu, un răufăcător ar putea să fie pe deplin conștient de sine și să se bucure de faptul că comite greșeala. Conștiința lor de sine îi conduce chiar și mai strident către acte din ce în ce mai mari de abatere nefastă.

Există mai multă tulbureală decât s-ar putea vedea direct ochiul. Să presupunem că cineva este foarte conștient de sine, dar nu este conștient de obiceiurile etice ale unei anumite societăți sau culturi. În acest fel, ei nu au nicio îndrumare etică, în ciuda faptului declarat că sunt conștienți de sine. Sau, dacă doriți, poate că persoana știe despre preceptele etice și nu crede că acestea se aplică. Ei se consideră unici sau în afara limitelor gândirii etice convenționale.

Se învârte și se învârte.

Conștiința de sine ar putea fi interpretată ca o sabie cu două tăișuri, orientată spre etică, ar sublinia unii cu fervoare.

Pentru moment, să mergem cu versiunea feței fericite constând în conștientizarea de sine în general, îndrumându-ne sau înghiontindu-ne către comportamente etice. Orice altceva fiind egal, vom face presupunerea neclintită că, cu cât este mai multă conștientizare de sine, cu atât vei fi mai înclinat din punct de vedere etic. Cu siguranță pare plăcut și inspirațional să-i dorești așa.

Să schimbăm vitezele și să aducem inteligența artificială (AI) în imagine.

Ne aflăm la un moment dat în această discuție pentru a conecta toate încurcările care urmează cu tărâmul în plină dezvoltare al IA etică, cunoscută și sub numele de etica AI. Pentru acoperirea mea continuă și extinsă a eticii AI, vezi linkul aici și linkul aici, Doar pentru a numi câteva.

Noțiunea de IA etică presupune împletirea domeniului eticii și comportamentului etic până la apariția IA. Cu siguranță ați văzut titluri care au dat semnale de alarmă despre AI, care este plină de inechități și diverse părtiniri. De exemplu, există îngrijorări cu privire la faptul că sistemele de recunoaștere facială bazate pe inteligență artificială pot prezenta uneori discriminare rasială și de gen, de obicei ca urmare a modului în care au fost instruite și implementate facilitățile subiacente de învățare automată (ML) și de învățare profundă (DL) (vezi analiza mea). la acest link aici).

Pentru a încerca să oprești sau măcar să atenuezi goana capricioasă către AI pentru rău, constând din sisteme AI care sunt fie din neatenție, fie uneori intenționat modelate pentru a acționa prost, a existat o urgență recentă de a aplica precepte etice la dezvoltarea și utilizarea IA. Scopul serios este de a oferi îndrumări etice dezvoltatorilor AI, plus firmelor care construiesc sau dezvoltă AI și celor care depind de aplicațiile AI. Ca un exemplu al principiilor AI etice care sunt elaborate și adoptate, vedeți acoperirea mea la linkul aici.

Oferă un moment de reflecție pentru a lua în considerare aceste trei întrebări extrem de cruciale:

  • Putem determina dezvoltatorii de inteligență artificială să îmbrățișeze principiile inteligenței artificiale etice și să pună în practică acele linii directoare?
  • Putem convinge firmele care fabrică sau lucrează AI să facă la fel?
  • Îi putem face pe cei care folosesc AI să cunoască în mod similar aspectele AI etice?

Aș spune fără rușine asta, este o comandă grea.

Fiorul de a face AI poate depăși orice bănuială de atenție față de etica AI. Ei bine, nu doar emoția, ci și câștigarea de bani este parte integrantă a acestei ecuații. S-ar putea să fii surprins să știi că unii din domeniul AI sunt predispuși să spună că vor ajunge să se ocupe de „lucrurile” AI etice odată ce își vor scoate sistemele AI pe ușă. Aceasta este mantra tipică a tehnicianului de a te asigura că eșuezi rapid și eșuezi des până când o rezolvi corect (sperăm că reușești).

Desigur, cei care împinge în mod sumar AI dubioase din punct de vedere etic în publicul larg lasă calul să iasă din hambar. Ideea lor proclamată extinsă este că AI pentru rău va fi reparat după ce este în uz zilnic, ceea ce în detriment este întârziat, deoarece calul galopează deja în mod liber. Se pot face rău. Există, de asemenea, șansa sporită ca nimic să nu fie reparat sau ajustat în timp ce AI este în uz. O scuză frecventă este că jocul cu AI în acel moment ar putea înrăutăți situația, în ceea ce privește luarea deciziilor algoritmice (ADM) care deja lipsește de etică.

Ce se poate face pentru a obține utilitatea și vitalitatea de a avea IA etică ca o lumină strălucitoare și călăuzitoare în mintea celor care construiesc AI, folosesc AI și folosesc AI?

Răspuns: Constiinta de sine.

Da, ideea este că, dacă oamenii ar fi mai conștienți de modul în care folosesc sau interacționează cu AI, ar putea crește tendința lor de a dori ca AI etică să fie norma. Același lucru s-ar putea spune despre dezvoltatorii AI și despre companiile legate de sistemele AI. Dacă ar fi mai conștienți de ceea ce fac, poate că ar îmbrățișa mai mult etica AI.

O parte din logica, așa cum a fost deja stipulată, este că a fi conștient de sine oferă o tendință de a fi o persoană mai bună din punct de vedere etic și, de asemenea, de a evita de la a fi o persoană proastă din punct de vedere etic. Dacă putem menține această premisă, înseamnă că dezvoltatorii de AI care sunt mai înclinați spre conștientizarea de sine vor fi, prin urmare, înclinați către comportamente etice și, prin urmare, vor fi înclinați spre producerea de IA solidă din punct de vedere etic.

Este un pod prea departe pentru tine?

Unii ar spune că indirectitatea este puțin prea mare. Lanțul exorbitant de legături dintre a fi conștient de sine, a fi virtuos din punct de vedere etic și aplicarea preceptelor etice la IA este poate greu de înghițit. Un contraargument este că n-ar putea strica să încerci.

Scepticii ar spune că un dezvoltator de inteligență artificială ar putea fi conștient de sine și poate avea o minte mai etică, dar nu vor sări neapărat spre aplicarea acestei tabere mentale la obiceiurile IA etică. Răspunsul la această scrupulă este că, dacă putem să facem publice și să popularizăm chestiunile legate de IA etică, conexiunea aparent slabă va deveni mai evidentă, mai așteptată și, eventual, va deveni modul standard de a face lucrurile atunci când vine vorba de crearea AI.

Acum voi adăuga o întorsătură acestei sagă. Întorsătura s-ar putea să-ți facă capul să se învârtească. Vă rugăm să vă asigurați că sunteți bine așezat și pregătit pentru ceea ce am să vă spun.

Unii subliniază că ar trebui să construim IA etică direct în IA în sine.

S-ar putea să fii nemulțumit de această declarație. Să-l despachetăm.

Un programator ar putea crea un sistem AI și să facă acest lucru cu propria sa conștientizare de programare de a încerca să împiedice AI să încorporeze părtiniri și inechități. Mai degrabă decât să se oprească doar la programare, dezvoltatorul urmărește peste umărul lor pentru a se întreba dacă abordarea pe care o întreprinde va duce la absența necesară a elementelor adverse în AI.

Grozav, avem un dezvoltator de AI care pare să fie suficient de conștient de sine, a căutat să îmbrățișeze comportamente etice și a văzut lumina pentru a include precepte etice în timp ce își creează sistemul AI.

Obține o victorie pentru Ethical AI!

Toate bune și bune, deși iată ceva care mai târziu se poate întâmpla. AI este pus în funcțiune și utilizat zilnic. O parte a AI include o componentă pentru a putea „învăța” din mers. Aceasta înseamnă că AI se poate ajusta pe baza datelor noi și a altor aspecte ale programării originale. Pe scurt, acest lucru nu înseamnă că IA este sensibilă. Nu avem IA sensibilă. Ignora titlurile acelea stupide care spun că o facem. Nimeni nu poate spune dacă vom avea IA sensibilă și nici nimeni nu poate prezice suficient când se va întâmpla vreodată.

Revenind la povestea noastră, AI-ul a fost conceput intenționat pentru a se îmbunătăți în timpul desfășurării. O noțiune destul de la îndemână. Mai degrabă decât programatorii să fie nevoiți să facă în mod continuu îmbunătățiri, ei permit programului AI să facă acest lucru de la sine (ui, asta este să nu mai lucrezi?).

În timpul în care AI cu centimetru se adaptează, se dovedește că diverse inechități și părtiniri sordide se strecoară în sistemul AI prin propriile sale acte de modificare. În timp ce programatorul a exclus inițial acele aspecte neplăcute, ele formulează acum datorită ajustării AI din mers. Din păcate, acest lucru se poate întâmpla într-un mod atât de subtil în culise încât nimeni nu este mai înțelept. Cei care mai devreme ar fi dat undă verde AI după testarea exhaustivă inițială, acum nu știu orbește că AI a mers pe calea putredă a AI pentru rău.

Un mijloc de a preveni sau cel puțin de a prinde această apariție nedorită ar fi să construim în IA un fel de dublu-verificator etic al AI. O componentă din cadrul AI este programată pentru a urmări comportamentul AI și a detecta dacă ADM neetic începe să apară. Dacă da, componenta ar putea trimite o alertă dezvoltatorilor AI sau poate face acest lucru unei firme care rulează sistemul AI.

O versiune mai avansată a acestei componente ar putea încerca să repare AI. Aceasta ar fi o ajustare a ajustărilor, transformând aspectele neetice apărute înapoi în parametrii etici corespunzători. Vă puteți imagina că acest tip de programare este complicat. Există șansa ca acesta să se rătăcească, posibil să se transforme neetic în profund lipsit de etică. Există, de asemenea, posibilitatea ca un fals pozitiv să declanșeze componenta în acțiune și poate să încurce lucrurile în consecință.

Oricum, fără să ne blocăm în modul în care ar funcționa acest dublu verificator, vom face o declarație îndrăzneață despre asta. Ai putea sugera că, într-un mod limitat, se spune că AI-ul este conștient de sine.

Da, astea sunt cuvinte de luptă pentru mulți.

Convingerea predominantă a aproape toată lumea este că AI-ul de astăzi nu este conștient de sine. Punct, punct. Până când ajungem la IA sensibilă, despre care nu știm dacă sau când se va întâmpla asta, nu există niciun fel de AI care să fie conștient de sine. Nu cel puțin în sensul conștientizării de sine orientate spre om. Nici măcar nu sugerați că se poate întâmpla.

Sunt cu siguranță de acord că trebuie să fim atenți la antropomorfizarea IA. Voi spune mai multe despre această îngrijorare într-un moment.

Între timp, dacă, de dragul discuțiilor, veți fi dispus să utilizați treapta „conștient de sine” într-o manieră liberă, cred că puteți înțelege cu ușurință de ce s-ar putea spune că AI respectă noțiunea generală de auto-conștientizare. conștientizarea. Avem o parte din AI care monitorizează restul AI, ținând cont de ceea ce face restul AI. Când restul AI începe să treacă peste bord, partea de monitorizare încearcă să detecteze acest lucru. În plus, porțiunea de monitorizare AI sau verificarea dublă ar putea direcționa restul AI înapoi pe benzile adecvate.

Nu ți se pare un pic actul de a viziona acele videoclipuri cu pisici și de a avea conștiința de sine că faci asta?

Există un inel familiar.

Putem extinde acest lucru și mai mult. Componenta de verificare dublu AI nu este doar programată să observe comportamentul restului AI, ci și să noteze comportamentul celor care folosesc AI. Cum se descurcă utilizatorii când folosesc AI? Să presupunem că unii utilizatori își exprimă indignarea că AI pare să-i discrimineze. Verificatorul dublu AI ar putea să înțeleagă acest lucru, folosindu-l ca un alt steag roșu despre rătăcirea restului AI.

Acest lucru aduce în evidență conștiința de sine internă și categorisirile auto-conștientizării externe.

Verificatorul AI scanează în interior și în exterior pentru a afla dacă restul AI s-a îndreptat către mări tulburătoare. Detectarea va ridica un steag sau va determina adoptarea unei auto-corecții.

Să adăugăm o altă extensie oarecum uluitoare. Construim un alt dublu-verificator AI care este menit să verifice dublu dublu-verificator AI de bază. De ce așa? Ei bine, să presupunem că verificatorul AI pare să se clătească sau să nu-și facă treaba. Verificatorul dublu AI al verificatorului dublu ar căuta să detecteze această defecțiune și să ia măsurile necesare în consecință. Bine ați venit la natura recursivă a conștientizării de sine, ar putea declara cu mândrie unii, așa cum este prezentat într-un sistem AI computațional.

Pentru aceia dintre voi care sunt deja la limita locului în acest sens, ultimul comentariu, deocamdată, este că am putea încerca să sugerăm că, dacă faceți sistemele AI „conștiente de sine”, acestea vor gravita atunci potențial către un comportament etic. Fac acest lucru pe o bază conștientă? Hotărât, nu. Fac acest lucru pe bază de calcul? Da, deși trebuie să fim clari că nu este de același calibru cu cel al comportamentului uman.

Dacă sunteți inconfortabil că noțiunea de conștientizare de sine este greșit distorsionată pentru a o face să se încadreze într-o schemă de calcul, îndoielile voastre cu privire la aceasta sunt bine notate. Dacă ar trebui să punem capăt eforturilor în curs de desfășurare a AI care valorifică noțiunea este o altă întrebare deschisă. Ați putea argumenta în mod convingător că cel puțin pare să ne îndrepte către un rezultat mai bun al ceea ce este probabil să facă AI. Totuși, trebuie să avem ochii larg deschiși când se întâmplă acest lucru.

Cred că va trebui să vedem cum se desfășoară totul. Reveniți la asta peste cinci ani, zece ani și cincizeci de ani și vedeți dacă gândirea dvs. s-a schimbat asupra subiectului controversat.

Îmi dau seama că aceasta a fost o examinare oarecum captivantă a subiectului și s-ar putea să dorești câteva exemple de zi cu zi. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre AI care are o aparență de „conștiință de sine” și, dacă da, ce arată acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele pe care AI le conduce în întregime pe cont propriu și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină cu autovehicule la nivelul 5, pe care nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini care se conduc singure și IA având așa-numita conștientizare de sine

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Am încredere că oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce urmează să povestesc.

Suntem pregătiți acum să facem o scufundare profundă în mașinile cu conducere autonomă și în întrebările etice ale AI care implică noțiunea care ridică sprâncenele ca AI să aibă un fel de conștientizare de sine, dacă doriți.

Să folosim un exemplu simplu. O mașină autonomă bazată pe inteligență este în curs de desfășurare pe străzile din cartierul tău și pare să conducă în siguranță. La început, ai acordat o atenție deosebită de fiecare dată când ai reușit să arunci o privire asupra mașinii care se conduce singur. Vehiculul autonom s-a remarcat prin raftul său de senzori electronici care includeau camere video, unități radar, dispozitive LIDAR și altele asemenea. După multe săptămâni în care mașina cu conducere autonomă se plimbă prin comunitatea ta, acum abia dacă observi. În ceea ce vă privește, este doar o altă mașină pe drumurile publice deja aglomerate.

Ca să nu crezi că este imposibil sau neplauzibil să te familiarizezi cu a vedea mașini cu conducere autonomă, am scris frecvent despre modul în care locurile care fac obiectul probelor de mașini cu conducere autonomă s-au obișnuit treptat să vadă vehiculele armonioase, vezi analiza mea la acest link aici. Mulți dintre localnici s-au mutat în cele din urmă de la gura căscată uimitoare, la acum emitând un căscat expansiv de plictiseală pentru a asista la acele mașini care se conduc singure.

Probabil că motivul principal în acest moment pentru care ar putea observa vehiculele autonome este din cauza factorului de iritare și exasperare. Sistemele de conducere bazate pe inteligență artificială se asigură că mașinile respectă toate limitele de viteză și regulile de circulație. Pentru șoferii umani agitați în mașinile lor tradiționale conduse de oameni, uneori te enervezi când rămâi în spatele mașinilor cu autonomie bazate pe inteligență artificială care respectă strict legea.

Este ceva cu care ar putea fi nevoie să ne obișnuim cu toții, pe drept sau greșit.

Înapoi la povestea noastră. Într-o zi, să presupunem că o mașină cu conducere autonomă din orașul tău se apropie de un semn de oprire și nu pare să încetinească. Doamne, se pare că sistemul de conducere AI va avea mașina cu conducere autonomă să treacă chiar pe lângă semnul Stop. Imaginați-vă dacă un pieton sau bicicletă ar fi fost undeva în apropiere și ar fi prins neprevăzut că mașina care conduce singur nu se va opri corect. Ruşinos. Periculos!

Și, ilegal.

Să luăm acum în considerare o componentă AI din sistemul de conducere AI care acționează ca un stil de verificare dublă conștientă de sine.

Vom lua un moment pentru a explora detaliile a ceea ce se întâmplă în interiorul sistemului de conducere AI. Se pare că camerele video montate pe vehiculul autonom au detectat ceea ce părea a fi, probabil, un semn de stop, deși în acest caz un copac acoperit de vegetație ascunde din abundență semnul Stop. Sistemul de învățare automată și de învățare profundă care a fost instruit inițial pe semne de oprire a fost conceput pe modele de semne de oprire în principal, în general neîngrădiți. La examinarea computațională a imaginilor video, a fost atribuită o probabilitate scăzută ca un semn de oprire să existe în acel loc anume (ca o complicație suplimentară și o explicație suplimentară, acesta a fost un semn de oprire recent postat care nu apărea pe hărțile digitale pregătite anterior pe care pe care se baza sistemul de conducere AI).

Una peste alta, sistemul de conducere AI a determinat din punct de vedere computațional să meargă înainte ca și cum semnul Stop ar fi fie inexistent, fie eventual un semn de alt fel, care probabil seamănă cu un semn Stop (acest lucru se poate întâmpla și se întâmplă cu o anumită frecvență).

Dar, din fericire, verificatorul dublu conștient de AI monitoriza activitățile sistemului de conducere AI. La revizuirea computațională a datelor și a evaluării de către restul AI, această componentă a optat să depășească cursul normal al procedurii și, în schimb, a comandat sistemului de conducere AI să se oprească adecvat.

Nimeni nu a fost rănit și nu a avut loc niciun act ilegal.

Ați putea spune că verificatorul dublu conștient de AI a acționat ca și cum ar fi un agent legal încorporat, încercând să se asigure că sistemul de conducere AI respectă legea (în acest caz, un semn de stop). Desigur, și siguranța a fost esențială.

Acest exemplu, sperăm, arată cum ar putea funcționa dublu-verificatorul AI conceput.

În continuare, putem lua în considerare pe scurt un exemplu de IA etică mai proeminent, care ilustrează modul în care verificarea dublă conștientă de AI ar putea oferi o funcționalitate încorporată orientată spre etică AI.

În primul rând, ca fundal, una dintre preocupările care au fost exprimate cu privire la apariția mașinilor cu conducere autonomă bazate pe inteligență artificială este că acestea ar putea ajunge să fie folosite într-un mod discriminatoriu oarecum inadvertent. Iată cum. Să presupunem că acele mașini cu conducere autonomă sunt configurate pentru a încerca să-și maximizeze potențialul de venituri, ceea ce are sens pentru cei care operează o flotă de mașini cu conducere autonomă disponibile în comun. Proprietarul flotei ar dori să aibă o operațiune profitabilă.

S-ar putea ca într-un anumit oraș sau oraș, mașinile autonome în roaming să înceapă treptat să deservească unele părți ale comunității și nu alte zone. Ei fac acest lucru pentru un scop de a face bani, în sensul că zonele mai sărace ar putea să nu fie la fel de generatoare de venituri precum părțile mai bogate ale localității. Aceasta nu este o aspirație explicită de a deservi anumite zone și de a nu servi altele. În schimb, se devine organic în ceea ce privește AI-ul mașinilor care se conduc singure „își da seama” computațional că sunt mai mulți bani de câștigat concentrându-se pe zonele geografic mai bine plătite. Am discutat despre această problemă etică societală în rubrica mea, cum ar fi la linkul aici.

Să presupunem că am adăugat un dublu verificator auto-conștient de AI în sistemele de conducere AI. După un timp, componenta AI observă din punct de vedere computațional un model de unde se deplasează mașinile cu conducere autonomă. În special, în unele zone, dar nu în altele. Pe baza faptului că a fost codificat cu unele precepte de IA etică, verificatorul dublu conștient de AI începe să ghideze mașinile cu conducere autonomă către alte părți ale orașului care altfel erau neglijate.

Acest lucru ilustrează noțiunea de conștientizare a AI și face acest lucru în combinație cu elementul AI etic.

Încă un astfel de exemplu ar putea oferi o perspectivă asupra faptului că această considerație a IA etică poate fi și o ramificație destul de serioasă și serioasă pe viață sau pe moarte.

Luați în considerare un reportaj de știri despre un accident de mașină recent. Se pare că un șofer uman venea la o intersecție aglomerată și avea semafor verde pentru a merge drept înainte. Un alt șofer a trecut pe lângă un semafor roșu și a intrat în intersecție când nu ar fi trebuit să facă acest lucru. Șoferul cu semafor verde și-a dat seama în ultimul moment că această altă mașină urma să-i lovească grav mașina.

Potrivit acestui șofer în pericol, el a calculat cu atenție că fie va fi lovit de cealaltă mașină, fie ar putea vira pentru a încerca să evite intrusul. Problema cu deviația a fost că în apropiere erau pietoni care ar fi puse în pericol.

Ce alegere ai face?

Te poți pregăti să fii lovit și să speri că daunele nu te vor mutila sau nu te vor ucide. Pe de altă parte, puteți să vă îndepărtați radical, dar să puneți în pericol grav și posibil să răniți sau să uciți pietonii din apropiere. Aceasta este o problemă grea, care cuprinde judecata morală și este pe deplin cuprinsă de implicații etice (și legale).

Există o dilemă etică cu scop general care acoperă acest tip de dilemă, cunoscută sau poate infam numită Problema căruciorului, vezi acoperirea mea extinsă la acest link aici. Se pare că este un experiment de gândire stimulativ din punct de vedere etic, care are originea la începutul anilor 1900. Ca atare, subiectul există de ceva vreme și, mai recent, a devenit în general asociat cu apariția AI și a mașinilor cu conducere autonomă.

Înlocuiți șoferul uman cu un sistem de conducere AI încorporat într-o mașină care se conduce singur.

Imaginați-vă atunci că o mașină autonomă cu inteligență artificială intră într-o intersecție și senzorii vehiculului autonom detectează brusc o mașină condusă de oameni care vine în mod periculos direct printr-o lumină roșie și țintește spre mașina fără șofer. Să presupunem că mașina cu conducere autonomă are câțiva pasageri în interiorul vehiculului.

Ce vrei să facă AI?

În cazul în care sistemul de conducere AI optează pentru a merge înainte și a fi lovit în (probabil să rănească sau poate să ucidă pasagerii din interiorul vehiculului), sau doriți ca sistemul de conducere AI să își ia o șansă și să se îndepărteze, deși acțiunea de virare necesită vehiculul autonom periculos spre pietonii din apropiere și i-ar putea răni sau ucide.

Mulți dintre producătorii de AI ai mașinilor cu conducere autonomă adoptă o abordare cu capul în nisip față de aceste probleme etice de AI. În general, AI așa cum este programat în prezent, ar merge pur și simplu înainte și ar fi lovit violent de cealaltă mașină. AI nu a fost programat să caute alte manevre evazive.

Am prezis în mod repetat că această poziție de a nu vedea răul, de a auzi și de a nu auzi, a producătorilor de mașini autonome cu inteligență artificială va veni în cele din urmă și îi va mușca (analiza mea este la linkul aici). Vă puteți aștepta la procese care implică astfel de accidente de mașină, care vor căuta să afle ce a fost programat AI pentru a face. Compania sau dezvoltatorii AI sau operatorul de flotă care a dezvoltat și implementat AI a fost neglijent sau răspunzător pentru ceea ce a făcut sau nu a făcut AI? De asemenea, puteți anticipa o furtună de incendiu la nivel public de conștientizare etică a IA, odată ce vor apărea aceste tipuri de cazuri.

În această dilemă etică a IA intră lăudatul nostru dublu-verificator AI, care este orientat spre etică. Poate că această componentă specială AI s-ar putea implica în astfel de circumstanțe. Porțiunea monitorizează restul sistemului de conducere AI și starea mașinii care se conduce singur. Când apare un moment groaznic ca acesta, componenta AI servește ca soluție de rezolvare a problemelor cu căruciorul și oferă ceea ce ar trebui să facă sistemul de conducere AI.

Nu este un lucru ușor de codificat, vă asigur.

Concluzie

Voi împărtăși cu voi ultimul gând deocamdată pe acest subiect.

Probabil că veți găsi asta intrigant.

Știți despre testul oglinzii?

Este destul de cunoscut în studiul conștientizării de sine. Alte denumiri pentru problema sunt testul de auto-recunoaștere a oglinzii, testul punctului roșu, testul roșu și frazele aferente. Tehnica și abordarea au fost create inițial la începutul anilor 1970 pentru a evalua conștiința de sine a animalelor. Animalele care se pare că au trecut cu succes testul includ maimuțe, anumite tipuri de elefanți, delfini, magpie și altele. Animalele care au fost testate și care nu au trecut testul includ panda giganți, leii de mare etc.

Uite care-i propunerea.

Când un animal se vede într-o oglindă, animalul realizează că imaginea prezentată este despre el însuși sau animalul crede că este un alt animal?

Probabil că animalul își recunoaște vizual propria specie, după ce a văzut o altă specie de felul său și, prin urmare, ar putea crede că animalul prezentat în oglindă este un văr sau poate un concurent beligerant (mai ales dacă animalul mârâie la imaginea în oglindă, ceea ce în rândul său pare să se mârâie înapoi la ei). Poate ați văzut pisica dvs. de casă sau câinele de companie iubit făcând același lucru atunci când se vede în oglindă pentru prima dată.

În orice caz, am presupune că un animal sălbatic nu s-a văzut niciodată pe sine. Ei bine, acest lucru nu este neapărat adevărat, deoarece poate animalul s-a întrezărit într-un bazin de apă calmă sau printr-o formațiune de stâncă strălucitoare. Dar acestea sunt considerate șanse mai puțin probabile.

Bine, vrem să evaluăm cumva dacă un animal este capabil să-și dea seama că este de fapt animalul arătat în oglindă. Gândește-te la acel act aparent simplu. Oamenii își dau seama de la o vârstă fragedă că există și că existența lor este demonstrată văzându-se într-o oglindă. Ei devin conștienți de ei înșiși. În teorie, s-ar putea să nu realizezi că ești tu, până nu te vezi într-o oglindă.

Poate că animalele nu sunt capabile să devină conștient de sine din punct de vedere cognitiv în același mod. S-ar putea ca un animal să se vadă într-o oglindă și să creadă permanent că este un alt animal. Indiferent de câte ori s-ar vedea pe sine, tot ar crede că acesta este un alt animal decât el însuși.

Partea truc a acestui lucru vine în joc. Facem un semn pe animal. Acest semn trebuie să fie vizibil numai atunci când animalul se vede în oglindă. Dacă animalul se poate răsuci sau se întoarce și poate vedea semnul pe el însuși (direct), asta distruge experimentul. În plus, animalul nu poate simți, mirosi sau detecta în orice alt mod semnul. Încă o dată, dacă ar face acest lucru, ar strica experimentul. Animalul nu poate ști că am pus semnul pe el, deoarece asta i-ar da un indiciu fiarei că există ceva acolo.

Vrem să restrângem lucrurile astfel încât singurul motiv posibil pentru care marca este descoperită să fie prin privirea în oglindă.

Aha, testul este acum gata. Animalul este așezat în fața unei oglinzi sau se plimbă spre ea. Dacă animalul încearcă să atingă sau să sape ulterior marcajul, am concluziona în mod rezonabil că singurul mod în care s-ar întâmpla acest lucru este dacă animalul și-a dat seama că marca era pe el însuși. Foarte puține specii de animale au reușit să treacă cu succes acest test.

Există o mulțime de critici cu privire la test. Dacă un tester uman este în apropiere, ei ar putea să dezvăluie lucruri uitându-se la semn, ceea ce ar putea determina animalul să-l perieze sau să simtă. O altă posibilitate este ca animalul să creadă în continuare că un alt animal este arătat în oglindă, dar este de același tip și astfel animalul se întreabă dacă are și el un semn ca cel de pe celălalt animal.

Merge și mai departe.

Sunt sigur că ești bucuros să știi acest lucru și de acum încolo vei înțelege de ce există un punct sau un semn ciudat pe un animal care altfel nu ar avea un astfel de semn. Cine știe, s-ar putea să fi terminat recent un experiment de testare a oglinzii. Felicitează animalul, în siguranță, pentru că a fost un participant generos.

Ce legătură are toate acestea cu mașinile autonome bazate pe inteligență?

O să-ți placă această parte.

O mașină care se conduce singur merge pe o autostradă lungă. Sistemul de conducere AI folosește senzori pentru a detecta alt trafic. Aceasta este o autostradă cu două benzi, care are trafic spre nord pe o bandă și spre sud pe cealaltă bandă. Ocazional, mașinile și camioanele vor încerca să treacă unul pe lângă celălalt, făcând acest lucru intrând pe banda opusă și apoi sărind înapoi pe banda lor de călătorie.

Ai văzut asta, fără îndoială ai făcut asta.

Pun pariu că acest aspect următor s-a întâmplat și ție. În fața mașinii care se conduce singur se află unul dintre acele camioane cisternă mari. Este realizat din metal lucios. Lustruit și curat ca un fluier. Când ajungeți în spatele unui astfel de camion, puteți vedea imaginea în oglindă a mașinii dvs. prin partea din spate a cisternei. Dacă ai văzut asta, știi cât de fascinant poate fi. Iată, tu și mașina ta, reflectați în reflexia ca o oglindă a spatelui camionului cisternă.

Așează-te pentru răsucirea nebună.

O mașină care se conduce singur vine în spatele camionului. Camerele detectează imaginea unei mașini care este afișată în reflexia ca oglindă. Woa, evaluează AI, asta este o mașină? Vine la mașina care se conduce singur? Pe măsură ce mașina cu conducere autonomă se apropie din ce în ce mai mult de camion cisternă, mașina pare să se apropie din ce în ce mai mult.

Da, AI ar putea calcula din punct de vedere computațional că aceasta este o situație periculoasă și AI ar trebui să ia măsuri evazive din acest vehicul nebun. Vedeți, AI-ul nu s-a recunoscut în oglindă. A picat testul oglinzii.

Ce să fac? Poate că verificatorul dublu conștient de AI sare în chestiune și asigură restul sistemului de conducere AI că este doar o reflectare inofensivă. Pericol evitat. Lumea este salvată. Trecerea cu succes a testului AI Mirror!

Cu o concluzie ironică, am putea chiar sugera că uneori AI este mai inteligentă sau cel puțin mai conștientă de sine decât un urs obișnuit (deși, spre meritul urșilor, de obicei se descurcă bine la testul oglinzii, de multe ori ajungând obişnuit cu reflectarea lor în bazine de apă).

Corectare, poate că AI poate fi mai conștient de sine decât panda giganți și leii de mare, dar nu le spuneți animalelor asta, ar putea fi tentate să spargă sau să distrugă sistemele AI. Nu vrem asta, nu?

Sursa: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/