Etica inteligenței artificiale exasperată de cei care se ocupă de etica IA și de sistemele autonome de IA

Există unii oameni care par să aibă ca misiune de viață scopul de a ne incita și de a ne înfuria pe ceilalți.

Cu siguranță cunoști pe cineva de genul ăsta. Ei vor arunca o declarație neplăcută și nejustificată într-o conversație care îi va zgudui complet pe toată lumea și declanșează o ceartă verbală. În ciuda stropirii conversaționale care este echivalentul unei grenade de mână explozive, s-ar putea sugera subtil că un astfel de act enervant și perturbator este doar un semn al unui provocator experimentat. Poate că dialogul a fost cu totul banal și neinteresant, deci nevoia motivată a unui efort rebel de a însufleți interacțiunea.

Pe de altă parte, s-ar putea ca provocarea să nu fie altceva decât o încercare de a opri orice bătaie de joc de fond. Un showstopper ieșit din senin ar părea să îndeplinească acel obiectiv nepotrivit. Prin distragerea atenției către un alt subiect extrem de controversat, toate naiba se vor dezlănțui și nimeni nu își va aminti trenul de gândire care cu doar câteva clipe în urmă era punctul central al atenției grupului.

Să lămurim că declarația interlocută va fi una ciudată. Dacă interjecția ar fi relevantă, sau poate chiar irelevantă, cheia ar fi dacă afirmația sau afirmația este ceva care ar putea genera o aparență de discuție echilibrată. Orice lucru într-o manieră care nu oferă un șoc abundent și absolut și uimire nu va fi suficient de satisfăcător pentru goader cu adevărat perturbator. Ei caută să vină cu absolut „cel mai bun” șocant, care îi va trimite pe toți participanții într-o stare de furie.

Cu cât este mai mare tizzy, cu atât mai bine.

După cum veți vedea într-o clipă, există o mulțime de goaders în domeniul inteligenței artificiale (AI). Aceștia sunt oameni cărora le place să-i inducă pe alții în discuții despre AI, care nu sunt menite în scopuri educaționale sau informaționale, ci pur și simplu ca imagini perturbatoare și exasperant de false despre ceea ce este AI și ce trebuie să facem în legătură cu AI.

Acei ghiocani încurcă, în general, lucrurile, în special prin aruncarea pe cei care nu știu despre IA și, din păcate, subcutând mișcarea concertată către IA etică. Voi lumina, de asemenea, un alt unghi al acestei împletiri a AI, și anume că unii conducători folosesc instrumente online bazate pe inteligență artificială cu scopul lamentabil de a face instigare în numele lor. După cum spune vechea vorbă, acest lucru aparent dovedește că pur și simplu nu poți oferi unor oameni jucării strălucitoare noi (din moment ce sunt obligați să le folosească necorespunzător).

Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Înainte de a intra în subiectul AI în sine, haideți să examinăm modul în care acești adepți își îndeplinesc, în general și pe ascuns, sarcinile de instigare.

După cum știți fără îndoială, perturbatorii devotați vorbăreț nu se limitează la interacțiuni verbale față în față. Sunt sigur că ați experimentat același tip de comportament online. Acest tip de activitate poate avea loc în timpul oricărei serii de mesaje text postate, cum ar fi atunci când oamenii răspund electronic la un stream video live și își exprimă opiniile despre ceea ce se întâmplă. Şansele sunt că vei primi pe cineva care trebuie doar să pună cei doi cenţi ai săi şi să facă acest lucru în cele mai indisciplinate moduri.

Reacția ar putea fi că alții încep să sară pe subiectul nou introdus. Pas cu pas, electronicul înainte și înapoi diverge de la discutarea fluxului live și devine, în schimb, preocupat de orice altă bombă pe care a aruncat-o goaderul. Este neapărat să se producă o acumulare.

Între timp, unii dintre cei care postează vor fi frustrați de capacitatea acestui perturbator de a deturna comentariul de mesaje text. Se vor face eforturi pentru ca atenția să se întoarcă asupra subiectului în cauză. Veți vedea imediat unele care vor eticheta perturbatorul ca un troll, un iritant pentru iluminarea cu gaz sau, eventual, denumit edgelord.

S-ar putea să nu fiți familiarizat cu termenul argou de a fi un edgelord. În general, terminologia se referă la cineva care postează online și optează pentru a introduce câteva remarci șocante și uneori nihiliste. În plus, persoana care face acest lucru nu este neapărat credincios în propriile observații. Ei sunt adesea interesați în mod unic și singular să-i enerveze pe oameni. Indiferent dacă remarca este una sinceră, nu are importanță. Aproape orice declarație ticălosă va fi de folos, cu condiția să răscolească un cuib de viespi.

Ce fel de afirmații îi pot determina pe alții să devină distrași și să se îndrepte în pânza obtuză de păianjen pe care stăpânul marginilor încearcă să o țese?

Iată câteva fragmente utile de iluminare cu gaz care sunt adesea folosite:

  • Viața este complet goală de valoare și sens (acesta este unul blând).
  • Oamenii sunt idioți și ar trebui să punem bot pe proști (acesta este unul care aprind).
  • Sincer, trebuie să părăsim Pământul și să începem lucrurile de la capăt pe o altă planetă (acesta este insidios).
  • Etc

Luați în considerare fațetele semi-inteligente ale acelor exemple de iluminare cu gaz.

Luați primul despre sensul vieții. Dacă intervin în aproape orice conversație că viața este complet goală de valoare, imaginează-ți reacțiile pe care le poți provoca. Unii ar putea răspunde cu simpatie. Ei sunt îngrijorați că sunteți posibil deprimat și deprimat. Într-un efort de grijă, ar putea încerca să stimuleze spiritele persoanei care a scris comentariul.

Alții ar putea răspunde argumentând că viața nu este lipsită de valoare. Ei vor apăra cu ardoare că viața merită trăită și că toți putem adăuga valoare tuturor celor din jurul nostru. Acest lucru ar putea duce apoi conversația într-o groapă de iepure despre diferitele moduri în care poate fi obținută valoarea adăugată. Recomandările vor începe să se reverse în dialog.

Edgelord sau goader acordă atenție acestor răspunsuri în sensul de a îmbrățișa empatia extinsă sau de a-și reconsidera strident postura cu privire la natura vieții?

La naiba nu.

Cheia acestui reprobator este că grupul a devenit distras. În plus, grupul este acum puternic pasionat de orice a dat răufăcătorul ca os de mestecat. Aceasta este cheia succesului aici. Determină-i pe toți să treacă la subiectul pe care l-a oferit instigarea. Vezi cât de departe va ajunge grupul. Dacă este necesar, păstrați distracția alimentată.

Uneori va fi nevoie de realimentare. În esență, grupul s-ar putea momentan să fie deturnat, dar apoi să realizeze că vor să revină la problema existentă. Nu atât de repede, se gândește în tăcere intrigatorul. Vor încerca să adauge mai multă muniție sau combustibil la foc.

Scânteia adăugată ar putea implica răspunsul celor care au luat momeala. Poate că ghinionul va încerca să-i facă pe simpatizanți să-și dea seama că mânuitorul este încă în gropi și are nevoie de mai multe cuvinte de mângâiere. Sau poate că acela va încerca să respingă afirmațiile că viața are valoare. Sunt disponibile o mulțime de unghiuri pentru a vă asigura că distragerea continuă să se rostogolească și să troleze.

Când se pare că niciun fel de instigare suplimentară nu va menține distracția în viață, stăpânul marginii va alege probabil să arunce un alt subiect în mulțime. De exemplu, luați în considerare cel de-al doilea exemplu pe care l-am menționat mai devreme despre afirmația că oamenii sunt proști și ar trebui să poarte bot. Acest lucru va primi cu adevărat capra unor oameni. Ei vor răspunde furioși că a numi oamenii proști este greșit și îl vor acuza pe adeptul că este intolerant. Unii vor fi complet uimiți de ideea proclamată de a arunca oamenii botniță, ceea ce poate duce la o deviere îndelungată a libertății de exprimare și a drepturilor umanității.

Toate acestea scot în evidență acea zicală faimoasă despre a nu opta niciodată pentru a te lupta cu un porc.

De ce da?

Pentru că amândoi vă înfundați în noroi, plus că porcului îi place.

Pe scurt, scopul edgelord gazlighting este de a obține o creștere a celorlalți, împreună cu distragerea atenției de la orice altceva a fost în centrul atenției. Nu există un interes deosebit în promovarea unui dialog inteligent și, eventual, în educarea oamenilor cu privire la orice chestiuni importante. Nu există nicio încercare reală de a oferi informații și de a ajuta oamenii să fie mai bine.

Furtunitatea implicată poate fi aproape uluitoare. Având în vedere că în zilele noastre suntem adesea în căutarea celor care încearcă intenționat să înceapă o luptă verbală, cei care îndeplinesc aceste eforturi diavolești trebuie să fie mai pricepuți decât înainte.

Se pot folosi diverse trucuri:

  • Începeți cu o declarație care pare legată de subiectul în cauză, făcând acest lucru pentru a duce conversația la uitare, mai degrabă decât să fiți prins de-a dreptul încercând să facă acest lucru
  • Aruncă un pic în dialog, dar apoi pare să regreti că ai făcut asta, oferindu-ți scuze, apoi revino mai puternic cu o revelație că ceea ce ai spus inițial este într-adevăr adevărat și demn
  • Pretindeți că altcineva a adus în discuție zgomotul cu care vă angajați acum, comportându-vă ca și cum ați răspunde inocent la comentariile „revoltătoare” oferite de altcineva
  • Dacă respondenții se împart astfel încât unii vă susțin, iar alții sunt în opoziție cu observația dvs. emoționantă, săriți în ajutorul unei părți și adăugați comentarii, așteptați să vedeți cum merg lucrurile și apoi săriți pe cealaltă parte, acționând ca deși ești convins înainte și înapoi
  • Pare să-ți retragi remarca inițială, dar, în acțiunea de a face acest lucru, asigură-te că o întăriști „stângaci”, provocându-i pe alții în confuzie și consternare.
  • Când cineva ia momeala, încurajează-l să continue cu energie (vor fi complicele tău involuntar), deși, dacă înțeleg că sunt exploatate de tine, găsește rapid un alt convertit nebănuit.
  • Recunoașteți fără îndoială că instigați grupul și apoi spuneți-le brusc că există toate oile, ceea ce va provoca o furtună reînnoită despre ceea ce ați făcut și cât de ticălos ești (în special, acest lucru va genera în continuare mai multă aceeași lumină cu gaz). activitate, care este oricum scopul).
  • Și așa mai departe.

Îndrăznesc să spun că în societatea de astăzi a gândirii divizionare destul de aparentă, tărâmul iluminatului cu gaz este răspândit de luat. Oferind o scânteie la îndemână, șansele sunt ca adeptul să poată sta pe spate și să privească artificiile. S-ar putea să nu fie nevoiți să acorde atenție la ceea ce se întâmplă. Aproape ca și cum s-ar fi declanșat o reacție termonucleară, conversația care va distrage atenția va fi propria mașinărie cu mișcare perpetuă. Concepătorul și vicleanul stăpân poate chicoti și râde până la bancă.

Vorbind despre bancă, s-ar putea să fii nedumerit de ce există acești stăpâni de margine sau goaders. De ce fac ei ceea ce fac? Care ar fi monetizarea pentru activitățile lor grozave? Sunt plătiți pentru că au provocat colapsul dialogului civil? Există un set ascuns de fonduri malefice care sunt puse deoparte pentru cei care pot duce lumea spre haos?

Motivele pentru a face aceste tactici de incitare pot varia destul de semnificativ.

Există posibilitatea unor plăți monetare, deși acest lucru este probabil mai puțin probabil în general. Factorul obișnuit este că persoana apreciază acțiunea. Unora le place să joace de noroc la cazinouri. Unora le place să sară din avioane ca parașutiști. Și unii oameni se bucură și au o pasiune deschisă pentru a-i face pe oameni enervați.

Frumusețea internetului pentru acest tip de comportament este că, de obicei, puteți scăpa de el anonim și fără încetare. În timp ce în pijamale. La orice oră din zi sau din noapte. Pe tot globul.

Dimpotrivă, în lumea reală de a fi fizic printre alți oameni, identitatea ta ar putea fi ușor descoperită. De asemenea, te pui într-un pericol fizic real în ceea ce privește potențialul ca cineva să fie atât de supărat la tine, încât altercațiile verbale duc la o ceartă cu vânătăi corporale. Fiind online, poți evita aproape acele consecințe negative ale acțiunilor tale înnebunitoare. Acestea fiind spuse, există încă șanse ca cineva să-și dea seama cine ești, eventual să te cheme sau să te ridice într-un fel.

Se poate sugera, de asemenea, că unii ar putea face acest lucru ca un înflăcărat și controversat virtuos cauza.

Iată ce înseamnă asta.

Unii dintre acești adepți vor încerca să pretindă că ajută lumea prin aceste eforturi aparent ciudate sau diavolești. Îi fac pe oameni să gândească dincolo de nasul lor. Se pretinde că un argument instigat sau provocat îi obligă pe oameni să-și regândească meticulos pozițiile, chiar dacă postura oferită este în afara domeniului de aplicare a oricărei conversații existente.

În plus, afirmația este că, cu cât oamenii sunt mai capabili să pontifice pe un subiect, pe orice subiect, cu atât vor fi mai bine la procesele lor de gândire. Da, oricât de ciudat ar părea, afirmația este că dialogul plin de spirit care rezultă din lumina cu gaz va fi aditiv mental pentru cei care participă. Ei vor deveni gânditori mai puternici ca urmare a acestor dezbateri pline de spirit. Poate că ar trebui să-l mângâim pe stăpânul de margine sau pe mângâietor pentru a îndemna profund umanitatea să fie gânditori mai profundi și mai pronunțați.

Hogwash, replică unii furioși.

Acestea sunt doar raționalizări false pentru un comportament rău. Edgelord sau goader încearcă să-și scuze acțiunile problematice și dăunătoare. Tot ceea ce realizează iluminatul cu gaz ne desparte și mai mult unul de celălalt. Goaders nu sunt niște figuri eroice care fac munca grea de a întări umanitatea. Ei favorizează nemulțumirea, mânia și seamănă incivilitatea la adâncimi mai mari în întreaga societate.

Amețitor și deconcertant.

Acum suntem pregătiți aici să schimbăm vitezele și să ne scufundăm în aspectele orientate spre AI.

Esența inteligenței artificiale care vizează stăpânii de margine și goaders implică folosirea subiectului particular al AI ca mijloc conceput de a-i deranja pe oameni. Acest lucru le îndeplinește rațiunea de a fi. Le place în special să folosească AI, deoarece este un subiect aproape sigur care poate fi exploatat atunci când încearcă să distragă atenția oamenilor. Majoritatea oamenilor au păreri despre AI, deși s-ar putea să nu știe prea multe despre AI. În plus, există o mulțime de titluri sălbatice și fără suflare despre AI în știrile de zi cu zi pe care le citim și le auzim, făcându-ne conștienți că lucrurile se întâmplă în AI și trebuie să fim în alertă.

AI este unul dintre cele mai bune subiecte de aprindere a focului.

Aruncă într-o conversație că AI ne va șterge pe toți sau că AI este cel mai bun lucru de la feliile de pâine și apoi așteaptă să vezi ce se întâmplă. Speranța este că atenția mulțimii se va schimba față de ceea ce a fost cu câteva momente înainte și acum să devină complet preocupată de bomba AI care a fost aruncată printre ei.

Contextul în care AI este adusă brusc în discuție poate apărea în diferite moduri. Puteți încerca să pară că un subiect AI este într-un fel relevant pentru orice altceva a fost discutat. Sunt șanse ca cineva deja în conversație să găsească un mijloc de a face o conexiune suplimentară cu subiectul AI pentru tine, încercând să te ajute ca și cum ai fi sincer și ai putea fi surprins sau chiar oarecum vestit pentru „flash-ul tău inteligent”. de insight” că AI era un aspect relevant (ei bine, chiar dacă s-ar putea să nu fie).

Desigur, dacă subiectul AI este deja pe masă, conducătorul va trebui să ia măsuri mai extreme. Ei nu vor ca bomba lor AI să fie introdusă în conversație. Nu, asta nu va merge. Țineți minte că intenționează să provoace ravagii și să întrerupă dialogul care are loc.

În acest caz, accentul va fi pus pe elaborarea unei remarci despre AI care să depășească discuția predominantă. Declarația sau afirmația trebuie să fie ceva care să înfurie grupul. Dacă poți să enervezi doar o singură persoană, probabil că este în regulă, deoarece șansele sunt că acest lucru va fi suficient pentru a-i determina și pe alții să vină la bord la distragere. Optim ar fi să aruncăm în fluxul de discuții un comentariu aberant al AI care ar primi toată lumea pentru a merge complet pe roșu fierbinte fisionabil. A face acest lucru ar fi culmea succesului pentru edgelord.

Ce fel de declarații de instigare AI pot fi folosite?

Luați în considerare următoarele:

  • AI ne va șterge pe toți și trebuie să încetăm să facem AI chiar acum, imediat (acest lucru este obligat să declanșeze o dezbatere).
  • AI va salva întreaga umanitate de ea însăși și trebuie să lăsăm AI să rătăcească complet liber (o afirmație oarecum încurajatoare).
  • Știu că AI este sensibilă pentru că am vorbit cu AI chiar zilele trecute și asta mi-a spus (rețineți că trebuie să aveți grijă când îl folosiți, alții ar putea crede că v-ați pierdut bilele și să ignore complet observația, astfel încât nu vor lua momeala).
  • Ascultă-mă, cu atenție, AI nu va exista niciodată, punct, sfârșitul poveștii (Acest lucru poate are o anumită valoare, deoarece se presupune că se poate deschide un dialog despre definiția inteligenței artificiale, dar nu asta îi pasă conducătorului, ei vor ca această ceartă să deturneze și să distragă atenția).
  • Etc

Îmi dau seama că unii dintre voi sunt oarecum supărați că acestea sunt afirmații pretinse istigatoare.

Cu siguranță, fiecare dintre aceste remarci are o valoare sănătoasă. Nu ar trebui să ne îngrijorăm dacă AI ar putea sfârși prin a ne șterge pe toți? Da, asta pare cu siguranță util. Nu ar trebui să ne gândim dacă AI ar putea salva umanitatea și, prin urmare, ar trebui să ne concentrăm eforturile AI în acest sens? Da, cu siguranță așa.

Puteți face un caz argumentat că aproape orice unghi sau remarcă despre AI va avea unele conotații gânditoare și pozitive. Cu cât discutăm mai mult despre AI, sperăm, cu atât mai bine ne vom descurca cu ceea ce va fi AI. Cu siguranță, societatea ar trebui să acorde atenția cuvenită la ceea ce se întâmplă cu AI. Celor care uneori ridică din umeri subiectul AI ca fiind relevant doar pentru cei care se află direct în domeniul AI le lipsește o înțelegere mai amplă a modului în care AI va afecta societatea.

Acestea fiind spuse, există momente și locuri potrivite pentru a discuta aceste subiecte controversate ale AI. Amintiți-vă că edgelord nu încearcă să educe sau să informeze. Astfel, ei programează inserarea acestor controverse AI pentru a alimenta doar argumente haotice. Speranța este ca orbii să-i conducă pe orbi, în sensul că cei care nu știu nimic de substanță pe tema AI vor ajunge, din neatenție, să-i inducă pe alții la o argumentare la fel de vacuă. Va fi o minge de praf magnifică de noroi și murdărie. Cu greu ați putea spune că discutarea acestor subiecte de IA va crește înțelegerea cuiva, atunci când adeptul a sămânțat intenționat controversa pe fondul unei circumstanțe despre care știu sau cred că va genera multă căldură indignată și va produce puțină lumină sensibilă, sau chiar deloc.

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza instigării la IA, să stabilim câteva elemente fundamentale suplimentare pe subiecte profund esențiale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a spus mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să ne întoarcem la concentrarea pe incitarea AI.

Nemernicii stăpâni s-au ramificat în ceea ce a devenit acum subiectul lor favorit de stimulare a fracasului despre AI, care este Etica AI. Da, adepții au descoperit că emiterea de comentarii scandaloase despre etica AI este hrana perfectă pentru oamenii care sunt în IA. În timp ce oamenii care nu sunt AI s-ar putea să nu știe dacă o remarcă caustică despre Etica AI este demnă de supărare, oamenii pătrunși de AI știu.

Iată cea mai recentă regulă generală pentru a fi perturbator:

a) Pentru persoanele care nu sunt AI, faceți observații în general despre modul în care AI ne va distruge pe toți sau ne va salva pe toți

b) Pentru oamenii AI, aruncați critici ascuțite despre etica AI și urmăriți cum zboară scânteile

c) Nu pierdeți remarcile caustice despre etica AI cu persoanele care nu sunt AI, deoarece oricum nu le vor înțelege (și, prin urmare, nu vor deveni balistice)

d) Nu folosiți remarcile tăioase despre inteligența artificială ca fiind distructive sau care ne salvează pe oamenii de inteligență artificială, deoarece au auzit-o de multe ori și s-au obișnuit cu ea (șinând reacțiile lor în consecință)

Ce fel de comentarii incitante la etică AI pot fi utilizate?

Încercați acestea pentru dimensiune:

  • AI va fi întotdeauna corectă și complet imparțială
  • AI este pe deplin de încredere
  • AI asigură că confidențialitatea noastră este complet protejată
  • AI nu poate face niciodată nimic rău
  • AI garantează siguranța umanității
  • AI va respecta mereu oamenii
  • Etc

Orice etician al inteligenței artificiale care merită sarea va avea o reacție sfâșietoare la aceste tipuri de afirmații. Un răspuns ar fi să explici în mod calm și sistematic de ce aceste comentarii sunt greșite. Vestea bună pentru pisător este că persoana care răspunde astfel face ceea ce dorește și a luat momeala.

Totuși, purtătorul dorește cu adevărat ceva mai mult, cum ar fi o reacție de indignare glorios de volatilă și de foc.

Dacă un participant al grupului răspunde spunând ceva asemănător cu faptul că acestea sunt cele mai nebunești și mai greșite remarci pe care le-a văzut vreodată în întreaga sa viață, goaderul va începe să danseze un jig ceremonial de hit-the-jackpot. Respondentul se clătina când își aruncă stiva. Dacă acest lucru nu se întâmplă în mod natural, cămila va avea grijă să adauge paiul final pentru a sparge spatele cămilei. O urmărire rapidă de către ghionitor prin afirmarea dogmatică că remarca este adevărul absolut, nevoiat, direct incontestabil, va face aproape sigur că barajul să se spargă.

O altă variantă a acestor remarci care explodează capul sunt acestea, deși nu sunt la fel de sigure:

  • AI nu va fi niciodată corectă și complet imparțială
  • AI nu este niciodată de încredere
  • AI asigură că confidențialitatea noastră este total neprotejată
  • AI nu va avea niciodată dreptate
  • AI garantează o lipsă totală de siguranță pentru umanitate
  • AI nu va respecta niciodată oamenii
  • Etc

Cred că puteți ghici de ce aceste remarci nu sunt la fel de puternice. De exemplu, primul punct spune că AI o va face nu fii corect și imparțial. Ați putea oarecum să faceți un argument logic că acest lucru are un sâmbure de adevăr, deși cuvântul „niciodată” este un pic de înșelăciune semantică și face ca aceasta să fie o afirmație hotărât discutabilă. Comparați formularea cu declarația anterioară care susținea că AI ar face-o mereu fii corect și imparțial. Cuvântul „întotdeauna” are o conotație puternică care îi va pune pe orice etician al inteligenței artificiale.

Respiră scurt dacă acele comentarii corozive te-au deranjat.

Doar pentru a vă anunța, am salvat cele mai vitrilice dintre remarcile acide pentru a încerca să vă ușuresc în ultima pe care o voi împărtăși cu voi deocamdată. Dacă sunteți cineva care poate fi declanșat cu ușurință, poate doriți să vă așezați pentru asta. Asigură-te că în apropierea ta nu există nimic care se poate sparge, altfel s-ar putea să te trezești prin reflex și aruncând acea plantă din ghiveci din apropiere prin fereastra bucătăriei tale.

Eşti gata?

Ține minte, ți-am dat o mulțime de avertismente prealabile.

Aici este:

  • AI Ethics este o grămadă de hooey și întregul lot ar trebui să fie aruncat la canal.

Hopa!

Sunt cuvinte care induc pumnii.

Goaderul păstrează de obicei această declarație deosebit de spumoasă în buzunarul din spate și o scoate la iveală numai atunci când orice persoană AI a fost altfel rezistentă la celelalte remarci usturatoare despre Etica AI. Este bazooka folosită de edgelords care doresc să trimită oameni conștiincioși cu inteligență artificială zburând peste margine și în abisul distras și argumentat.

Pentru cei dintre voi care v-au jucat deja pe acela, presupun că sunteți pregătiți să faceți față. Voi spune mai multe mai târziu despre cum să reacționăm la acest tip de remarci înfurie.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome, bazate pe inteligență artificială, luminează ceva legat de incitarea la inteligență artificială și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini care se conduc singure și căutări despre AI

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Să luăm în considerare ce fel de incitare despre AI poate folosi un edgelord în contextul mașinilor care se conduc singure bazate pe inteligență. Aspectul la îndemână este că există o mulțime de apăsări pe butoanele vehiculelor autonome și ale oamenilor AI care pot fi concepute cu ușurință în domeniul auto-conducerii. Realizați de asemenea că acestea pot fi utilizate potențial pentru orice tip de transport cu conducere autonomă, inclusiv mașini cu condus singur, camioane cu condus singur, scutere cu condus singur, motociclete cu condus singur, submersibile cu condus singur, drone cu condus singur, conduce avioane, nave cu conducere autonomă și alte vehicule cu conducere autonomă.

Vă prezint câteva dintre favoritele folosite în aceste zile:

  • AI nu va putea niciodată să conducă singură
  • AI nu va fi niciodată în siguranță la conducere
  • AI nu va înlocui niciodată driverele umane
  • AI va prelua vehiculele noastre și vom fi la mila totală a AI
  • Etc

Toate aceste remarci sunt demne de argument.

Am acoperit fiecare dintre acestea în coloanele mele și nu îmi voi repeta analizele aici.

Ideea acum este că acestea sunt comentarii care sunt construite în mod intenționat pentru a obține o creștere a celor care se bucură de vehicule autonome și autonome. Din nou, nu sugerez că acestea sunt remarci nedemne și doar subliniez că, dacă un adept dorește să distragă atenția unei conversații care altfel nu are nimic de-a face cu acele chestiuni, ei sunt bine reglați pentru a declanșa o gălăgie.

Concluzie

Deoarece până acum s-ar putea să aburiți sub guler despre toate aceste comentarii acerbe pe care le folosesc goaders, ne vom ușura într-un spațiu mental meditativ calmant. Înainte de a ajunge într-o stare mentală de vis, vă rugăm să știți că acești edgelords folosesc din ce în ce mai mult chatbot-uri AI pentru a-și face treaba murdară pentru ei. Acest lucru înseamnă că goeders își pot multiplica eforturile distructive conversaționale la scară masivă. Este cât se poate de simplu. Cu câteva apăsări de taste, aceștia își pot direcționa armata de chatboți online „împuternicită” de AI pentru a se scufunda în dialoguri și a lansa din abundență acele declarații bomba care stârnesc furie.

Ei bine, poate că asta nu te-a ajutat să devii meditativ și senin.

Să luăm cu toții un moment de liniște și să ne gândim în schimb la Bambi.

Bambi ne poate oferi câteva perspective clare despre acest subiect. Presupun că știi pe de rost povestea lui Bambi, tânărul cerb. La un moment dat, un iepure eruptiv și copilăresc pe nume Thumper îl întâlnește pe Bambi. Din gura proverbială a bebelușilor iese un comentariu al lui Thumper, care pare destul de dur și nepotrivit, și anume că Bambi pare a fi oarecum clătinat. În apropiere stă mama lui Thumper.

Ea îi reamintește lui Thumper de înțelepciunea trimisă de tatăl lui Thumper chiar în acea dimineață: „Dacă nu poți spune ceva frumos, nu spune nimic deloc”.

Ne-am putea dori ca stăpânii de margine și goaders să adopte în mod evident acel sfat. Din păcate, un lucru care pare garantat de fier în această lume este că cu siguranță nu vor spune nimic. Sunt motivați să spună ceva. Și ceva ce vor spune ei este calculat cu răutate pentru a crea o furtună. Furtuna nu va avea alt scop decât să facă ravagii.

Ce poți face în legătură cu asta?

În primul rând, nu juca jocul lor. Dacă ești absorbit în gaura de vierme al altercației verbale, vei avea dificultăți să te scoți din ea. Mai târziu, odată ce ai ajuns în clar, sunt șanse să te uiți înapoi la ceea ce s-a întâmplat și să te dai cu piciorul pentru că ai căzut în complotul intrării. După cum am spus mai devreme, intrarea în noroi cu un porc nu face decât să te îmbolnăvească și, din păcate, aprinde și întărește comportamentul fiarei.

Încearcă să-l ignori pe adeptul.

Dacă persistă, vezi dacă există mijloace de a le scoate din conversație.

Aveți grijă să nu faceți acest lucru pe o bază fals pozitivă. Nu închide pe cineva care ar putea încerca în mod legitim și sincer să ia parte la discuție. Pentru cei care par să fie în această tabără, probabil că vor înțelege când îi vei informa politicos că nu este momentul sau locul pentru problema pe care o vor discuta. Încercați să oferiți o sugestie cu privire la momentul în care observațiile lor ar putea fi mai potrivite pentru a fi luate în considerare.

Pentru aceia dintre voi care cred că ați putea să schimbați edgelord sau goaderul și să-i faceți să întoarcă o nouă foaie, vă doresc mult succes. Nu va fi ușor. Ar putea fi imposibil.

Conform cuvintelor celebre ale lui Mahatma Gandhi: „Nu poți schimba felul în care oamenii te tratează sau ce spun ei despre tine. Tot ce poți face este să schimbi modul în care reacționezi la asta.”

Uneori, asta este cel mai mult pentru care te poți strădui.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/07/10/ai-ethics-exasperated-by-those-gaslighting-ai-focused-edgelords-that-goadingly-say-outlandishly-infuriating- lucruri-despre-etica-ai-și-sisteme-autonome-ai/