Etica AI se sprijină pe Aristotel pentru a examina dacă oamenii ar putea opta pentru înrobirea IA în mijlocul apariției sistemelor complet autonome

Prieten sau dușman.

Pește sau păsări.

Persoană sau lucru.

Toate aceste enigme omniprezente sugerează aparent că ne confruntăm uneori cu o situație dihotomică și trebuie să alegem o fațetă sau alta. Viața ne poate obliga să ne confruntăm cu circumstanțe care constau în două opțiuni care se exclud reciproc. Într-un limbaj mai plin de gust, ați putea sugera că o ecuație binară de excludere ne cere să mergem pe o cale distinctă mai degrabă decât pe alta.

Să ne concentrăm în mod special pe dihotomia persoană sau lucru.

Întrebarea fierbinte a persoanei sau a lucrurilor apare din când în când în ceea ce privește Inteligența Artificială (AI).

Pentru a clarifica, AI de astăzi este absolut nu o persoană și nu are nicio aparență de simțire, în ciuda oricăror titluri cu ochii mari și complet exagerați pe care le-ați putea vedea în știri și pe rețelele sociale. Astfel, puteți fi ferm siguri că în acest moment problema dacă AI este o persoană sau un lucru este ușor de răspuns. Citește-mi pe buze, într-o adevărată alegere a lui Hobson între persoană sau lucru, AI este un lucru, deocamdată.

Acestea fiind spuse, putem privi spre viitor și ne întrebăm ce s-ar putea întâmpla dacă suntem capabili să obținem o formă sensibilă de IA.

Unii critici motivați (plus sceptici caustici) sugerează că probabil ne numărăm puii cu mult înainte ca aceștia să fie ecloși, discutând în zilele noastre despre ramificațiile unei IA sensibile. Preocuparea exprimată este că discuția în sine implică faptul că trebuie să fim în pragul unei astfel de IA. Societatea în general ar putea fi indusă în eroare să creadă că mâine sau poimâine va avea loc o revelație bruscă și șocantă că am ajuns, de fapt, la IA sensibilă (aceasta este uneori denumită de unii singularitatea AI sau o explozie de inteligență, vezi analiza mea la linkul aici). Între timp, nu știm când va apărea o astfel de IA, dacă vreodată și, cu siguranță, se pare că nu trebuie să ne uităm în jurul fiecărui colț și să fim îngrozitor de înfricoșați că AI-ul simțitor va sări la noi în mod complet neașteptat în următorul putin timp.

Cealaltă parte a dezbaterii subliniază că nu ar trebui să avem capul îngropat adânc în nisip. Vedeți, dacă nu discutăm și ne gândim în mod deschis la posibilitățile asociate cu inteligența artificială sensibilă, facem omenirii un presupus grav deserviciu. Nu vom fi pregătiți pentru a gestiona AI simțitoare când sau dacă va apărea. Mai mult, și poate și mai puternic afirmat, anticipând IA simțitoare, putem lua lucrurile oarecum în propriile mâini și putem modela direcția și natura modului în care va fi o astfel de IA și în ce va consta (nu toată lumea este de acord cu acest ultim punct , și anume unii spun că o astfel de IA va avea o „minte” în întregime proprie și noi nu vom putea să o modelăm sau să o înghesuim, deoarece IA va fi capabilă în mod independent să gândească și să determine un mijloc de a exista în mod persistent).

Etica AI tinde să se apropie de punctul de vedere conform căruia am fi înțelepți să scoatem la iveală aceste chestiuni grele și argumentative ale inteligenței artificiale, mai degrabă decât să așteptăm până nu mai avem opțiuni sau să fim uluiți de obținerea unei astfel de AI. Cititorii știu bine că am acoperit pe larg subiecte de etică AI și IA etică, inclusiv acoperind o gamă robustă de probleme spinoase, cum ar fi personalitatea juridică AI, limitarea AI, dezgorgerea AI, monocultura algoritmică AI, spălarea eticii AI, utilizarea dublă. AI așa-numitele proiecte Doctor Evil, AI care ascunde dinamica puterii societale, AI de încredere, auditarea AI și așa mai departe (vezi acoperirea coloanelor mele despre aceste subiecte vitale la linkul aici).

Ți-am pus o întrebare provocatoare.

În viitor, presupunând că în orice mod vom ajunge cu IA simțitoare, va fi acea IA sensibilă interpretată de noi toți ca o persoană sau ca un lucru?

Înainte de a începe să facem o scufundare profundă în această întrebare cu totul provocatoare, permiteți-mi să spun ceva despre sloganul „AI sensibil”, astfel încât să fim cu toții pe aceeași pagină. Există multă neliniște cu privire la semnificația conștiinței și la sensul conștiinței. Experții pot să nu fie de acord cu privire la ceea ce reprezintă acele cuvinte. Adăugând la această tulburare, ori de câte ori cineva se referă la „AI”, nu aveți mijloace pregătite de a ști la ce se referă în sine. Am subliniat deja că IA de astăzi nu este sensibilă. Dacă în cele din urmă ajungem la o viitoare IA care este sensibilă, probabil că o vom numi și „AI”. Ideea este că aceste chestiuni controversate pot fi destul de confuze în acest moment în ceea ce privește dacă rostirea frazei „AI” este legată de IA nesimțită de astăzi sau de IA care poate fi simțită într-o zi.

Cei care dezbat AI se pot trezi că vorbesc unul peste altul și nu își dau seama că unul descrie mere, iar celălalt vorbește între timp de portocale.

Pentru a încerca să ocoliți această confuzie, există o ajustare a frazei AI pe care mulți o folosesc în scopul clarificării pline de speranță. În prezent, avem tendința de a ne referi la Inteligența Generală Artificială (AGI) ca tipul de IA care poate face eforturi complet inteligente. În acest sens, utilizarea mai blândă a expresiei „AI” este lăsată fie să fie interpretată ca o versiune mai mică a AI, despre care unii spun că este AI îngustă, fie este ambiguă din punct de vedere denotațional și nu știți dacă referința este la non - AI sensibil sau poate AI simțitor.

Voi oferi o întorsătură suplimentară la asta.

În funcție de o anumită definiție a sensibilității, ați putea intra într-un discurs aprins despre dacă AGI va fi sensibil sau nu. Unii susțin că da, desigur, AGI va trebui, prin natura sa intrinsecă, să fie sensibilă. Alții susțin că puteți avea AGI care nu este sensibil, ergo, sensibilitatea este o caracteristică diferită care nu este o cerință pentru atingerea AGI. Am examinat în mod diferit această dezbatere în rubricile mele și nu voi relua problema aici.

Pentru moment, vă rugăm să presupuneți că de acum înainte în această discuție de aici, atunci când mă refer la AI, intenționez să sugerez că mă refer la AGI.

Iată descărcarea despre asta. Încă nu avem AGI și, într-un fel de a vorbi, vom fi momentan de acord politicos că AGI se află în aceeași tabără generală ca AI sensibilă. Dacă ar fi să folosesc „AGI” doar pe parcursul discuției mele, această frază poate distrage atenția, deoarece nu mulți sunt încă obișnuiți să vadă „AGI” ca pseudonimă și probabil că ar fi ușor enervați să vadă în mod repetat această frază relativ mai nouă. Acum, dacă, în schimb, ar fi să mă refer în continuare la „AI sensibilă”, acesta ar putea fi un factor de distracție și pentru cei care se ceartă dacă AGI și AI sensibilă sunt la fel sau diferite una de cealaltă.

Pentru a evita această mizerie, să presupunem că referirea mea la IA este la fel cu a spune AGI sau chiar AI simțitor și cel puțin să știi că nu vorbesc despre IA non-simțientă non-AGI de astăzi când intru în chinurile considerațiilor cu privire la AI care pare să aibă o inteligență asemănătoare omului. Voi folosi ocazional omonimul AGI pentru a vă aminti din când în când aici că examinez tipul de IA pe care încă nu îl avem, mai ales la începutul acestei explorări despre ghicitoarea persoană sau lucru.

Aceasta a fost o recunoaștere utilă cu litere mici și acum revin la chestiunea fundamentală la îndemână.

Dați-mi voie să vă întreb dacă AGI este o persoană sau un lucru.

Luați în considerare aceste două întrebări:

  • Este AGI o persoană?
  • Este AGI un lucru?

În continuare, să repetăm ​​fiecare întrebare și, respectiv, să răspundem la întrebări cu o serie de răspunsuri da sau nu, potrivit unei presupuse alegeri dihotomice.

Începeți cu această posibilitate postulată:

  • Este AGI o persoană? Răspuns: Da.
  • Este AGI un lucru? Răspuns: Nu.

Gândește-te la asta. Dacă AGI este de fapt interpretat ca o persoană și nu ca un lucru, putem fi aproape sigur de acord că ar trebui să tratăm AGI ca și cum ar fi asemănător cu o persoană. S-ar părea să existe un argument insuficient de autentic despre neacordarea AGI a unei forme de personalitate juridică. Acest lucru fie ar fi în întregime identic cu personalitatea juridică umană, fie am putea decide să venim cu o variantă de persoană juridică orientată spre om, care ar fi judicios mai aplicabilă AGI. Caz inchis.

Asta a fost ușor.

Imaginați-vă în schimb că am declarat asta:

  • Este AGI o persoană? Răspuns: Nu.
  • Este AGI un lucru? Răspuns: Da.

În această împrejurare, rezoluția este evident simplă, deoarece spunem că AGI este un lucru și nu se ridică la categoria de persoană. S-ar părea că există un acord general că nu i-am acorda în mod hotărât personalitatea juridică AGI, din cauza fațetei că nu este persoană. Ca un lucru, AGI s-ar încadra probabil și în mod rațional sub rubrica noastră generală despre modul în care tratăm legal „lucrurile” în societatea noastră.

Două jos, încă două posibilități de plecat.

Imaginează-ți asta:

  • Este AGI o persoană? Răspuns: Da.
  • Este AGI un lucru? Răspuns: Da.

Aaa, pare ciudat, deoarece avem două răspunsuri da. Enervant. Sugerăm că AGI este atât o persoană, cât și, în același timp, un lucru. Dar acest lucru pare să zboare în fața dihotomiei noastre proclamate. În teorie, conform constrângerilor unei dihotomii, ceva trebuie să fie fie o persoană, fie trebuie să fie un lucru. Se spune că acele două găleți sau categorii se exclud reciproc. Afirmând că AGI este ambele, contrazicem sistemul și rupem aranjamentul care se exclude reciproc.

Ultima noastră posibilitate ar părea a fi aceasta:

  • Este AGI o persoană? Răspuns: Nu.
  • Este AGI un lucru? Răspuns: Nu.

Da, asta este rău și pentru încercările noastre de a clasifica AGI ca persoană sau lucru. Spunem că AGI nu este o persoană, ceea ce ar însemna probabil că trebuie să fie un lucru (singura noastră altă opțiune disponibilă, în această dihotomie). Dar am mai spus că AGI nu este un lucru. Totuși, dacă AGI nu este un lucru, ar trebui să pretindem că AGI este o persoană. Mergem rotund și rotund. Un paradox, cu siguranță.

AGI în aceste ultime două posibilități a fost fie (1) și persoană și lucru, fie (2) nici persoană, nici lucru. S-ar putea să spuneți în mod obraznic că acele două afirmații despre AGI sunt oarecum asemănătoare cu enigma clasică a ceea ce nu este nici pește, nici păsări, dacă știi ce vreau să spun.

Ce trebuie să facem?

Sunt pe cale să propun o soluție propusă deseori argumentată și aprig contestată pentru această dilemă de clasificare AGI, deși ar trebui să fiți alertat în prealabil că va fi posibil să fie tulburător de tulburător să vedeți sau să auziți. Vă rugăm să vă pregătiți în consecință.

O lucrare de cercetare care a abordat această problemă a afirmat următoarele: „O metodă de rezolvare a acestei probleme este de a formula un al treilea termen care să nu fie nici un lucru, nici altul sau un fel de combinație sau sinteză a unuia și a celuilalt” (de David Gunkel, Universitatea Northern Illinois din De ce roboții nu ar trebui să fie sclavi, 2022). Și lucrarea oferă apoi acest punct adăugat: „O soluție posibilă, dacă nu surprinzătoare, la dihotomia exclusiv persoană/lucru este sclavie” (pe aceeași hârtie).

Ca fundal suplimentar, cu ani mai devreme, a apărut o lucrare care a apărut în 2010, intitulată „Roboții ar trebui să fie sclavi”, care a devenit un tip de bază pentru stimularea acestui tip de considerație, în care lucrarea afirma: „Teza mea este că roboții ar trebui să fie construite, comercializate și considerate legal ca sclavi, nu colegi de companie” (într-o lucrare de Joanna Bryson). Pentru a încerca să elucidam subiectul fără a folosi o formulare atât de severă și de chinuitoare, lucrarea a continuat să afirme următoarele: „Ceea ce vreau să spun este „Roboții ar trebui să fie servitorii pe care îi deții” (după lucrarea lui Bryson).

Mulți cercetători și autori au acoperit acest domeniu.

Gândiți-vă la numeroasele povești științifico-fantastice care prezintă umanitatea înrobind roboții AI. Unii vorbesc despre sclavi roboți, servitori artificiali, servitute AI și altele asemenea. Interesant, oricât de dură pare a fi formularea „sclavi robot”, unii s-au îngrijorat că, dacă ne referim în schimb la „servitori robot”, evităm realitatea modului în care astfel de sisteme autonome AI pot fi tratate (înlocuind cuvântul cu „ slujitori” se spune că este o diluare a intențiilor și un truc pentru a ocoli implicațiile serioase). Bryson a declarat mai târziu într-o postare pe blog din 2015 că „Îmi dau seama acum că nu poți folosi termenul „sclav” fără a invoca istoria sa umană.”

Pentru cei care caută să examineze în profunzime acest subiect care încurcă AGI, uneori aduc în discuție exemple istorice din lumea reală din care am putea obține perspective. Desigur, nu avem nicio AGI anterioară care să arate modul în care umanitatea a tratat problema. Un argument spune că am putea avea totuși repere istorice utile care merită examinate care implică modul în care oamenii i-au tratat pe alți oameni.

De exemplu, într-o carte publicată în 2013, autorul afirmă acest lucru: „Promisiunea și pericolul servitorilor artificiali și inteligenți au fost expuse implicit pentru prima dată acum peste 2,000 de ani de Aristotel” (carte de Kevin LaGrandeur, Androidi și rețele inteligente în literatura și cultura modernă timpurie). Ideea este că ne putem apleca spre Aristotel și să vedem dacă există perspective asupra modului în care umanitatea va sau ar trebui să ajungă potențial să trateze AGI.

Sunt sigur că știți importanța studierii istoriei, așa cum o subliniază din belșug celebrele cuvinte ale lui George Santayana: „Cei care nu-și pot aminti trecutul sunt condamnați să-l repete” (în Viața rațiunii, 1905).

Felicitari Institutului de etică și inteligență artificială al Universității Oxford

O prezentare recentă și destul de apreciată a examinat îndeaproape problema Eticii AI în mijlocul adunării de perspective din operele și viața lui Aristotel. În prelegerea anuală inaugurală pentru Universitatea Oxford Institutul pentru Etică și IA, profesorul Josiah Ober de la Universitatea Stanford a abordat profund subiectul în prezentarea sa „Etica în IA cu Aristotel”, care a avut loc recent pe 16 iunie 2022.

Notă secundară, în calitatea mea de membru Stanford și expert global în etica și drept AI, am fost încântat că Josiah Ober de la Stanford a fost selectat ca vorbitor inaugural. O alegere minunată și o discuție extraordinară.

Iată rezumatul care a fost oferit pentru discursul său captivant: „Filosofia analitică și ficțiunea speculativă sunt în prezent principalele noastre resurse intelectuale pentru a gândi serios la etica în AI. Propun să adaug un al treilea: istoria socială și filozofică veche. În Politică, Aristotel dezvoltă o doctrină notorie: Unii oameni sunt sclavi „prin natură” – inteligenți, dar suferă de un defect psihologic care îi face incapabili să raționeze despre propriul lor bine. Ca atare, ele ar trebui tratate ca „unelte animate”, mai degrabă instrumente decât capete. Munca lor trebuie să fie dirijată de către și angajată în avantajul altora. Doctrina respingătoare a lui Aristotel a fost desfășurată în scopuri vicioase, de exemplu în America antebelic. Cu toate acestea, este util pentru etica AI, în măsura în care sclavia antică era un prototip premodern al unei versiuni de AI. Persoanele înrobii erau omniprezente în societatea greacă antică – muncitori, prostituate, bancheri, birocrați guvernamentali – dar nu se distingeau ușor de persoanele libere. Ubicuitatea, împreună cu presupunerea că sclavia era o necesitate practică, a generat o serie de puzzle-uri și dileme etice: cum, exact, sunt sclavii diferiți de „noi”? Cum îi putem deosebi de noi înșine? Au drepturi? Ce înseamnă maltratare? Instrumentul meu poate fi prietenul meu? Care sunt consecințele manumisiei? Istoria lungă a luptei filozofice și instituționale grecești cu aceste și alte întrebări se adaugă la repertoriul interpretativ al eticienilor moderni care se confruntă cu un viitor în care o mașină inteligentă ar putea fi considerată un „sclav natural” (conform Universității Oxford). Institutul pentru Etica AI site-ul web).

Pentru mai multe informații despre prezentare și acces la înregistrarea video a discursului, vezi linkul aici.

Moderatorul prezentării a fost profesorul John Tasioulas, directorul inaugural al Institutul pentru Etică și IAși profesor de etică și filozofie juridică, Facultatea de Filosofie, Universitatea din Oxford. Anterior, a fost președintele inaugural de Politică, Filosofie și Drept și director al Centrului Yeoh Tiong Lay pentru Politică, Filosofie și Drept la Facultatea de Drept Dickson Poon, Kings College din Londra.

Recomand cu căldură tuturor celor interesați de Etica AI să țină pasul cu lucrările în desfășurare și cu discuțiile invitate de la Universitatea Oxford Institutul pentru Etică și IA, A se vedea linkul aici şi / sau linkul aici pentru informații suplimentare.

Ca fundal, iată misiunea declarată și obiectivul Institutului: „Institutul pentru Etică în AI va reuni filosofi de renume mondial și alți experți în științe umaniste cu dezvoltatorii tehnici și utilizatorii AI din mediul academic, afaceri și guvern. Etica și guvernarea AI este un domeniu de cercetare excepțional de vibrant la Oxford, iar Institutul este o oportunitate de a face un salt îndrăzneț înainte de pe această platformă. Fiecare zi aduce mai multe exemple ale provocărilor etice pe care le reprezintă AI; de la recunoașterea feței la profilarea alegătorilor, interfețele mașinii creierului până la drone cu arme și discursul în curs despre modul în care AI va afecta angajarea la scară globală. Aceasta este o muncă urgentă și importantă pe care intenționăm să o promovăm la nivel internațional, precum și să o integrăm în propria noastră cercetare și predare aici la Oxford” (sursă de pe site-ul oficial).

Aducând în prim plan lecțiile lui Aristotel

Grecia antică a acceptat și a susținut în mod deschis practica înrobirii. De exemplu, se pare că Atena în 5th și 6th secolele î.Hr. a avut una dintre cele mai mari întruchipare de sclavie, în care aproximativ 60,000 până la 80,000 de persoane au fost înrobite. Dacă ați citit oricare dintre multele povești grecești și piese de teatru din acea epocă, există multe mențiuni despre acest lucru.

În timpul vieții sale, Aristotel a fost complet cufundat în aspectele societale și culturale care implică înrobirea și a scris pe larg pe această temă. Putem astăzi să citim cuvintele lui și să căutăm să înțelegem cum și de ce părerile sale despre această problemă. Acest lucru poate fi foarte grăitor.

S-ar putea să vă întrebați de ce Aristotel ar fi o sursă deosebit de importantă de luat în considerare pe această temă. Apar cel puțin două motive principale:

1) Mare Gânditor. Aristotel este, cu siguranță, considerat unul dintre cei mai mari gânditori ai tuturor timpurilor, slujind ca un filosof măreț și profund cercetător și văzut și ca un etician care a stabilit multe pietre de temelie etice cruciale. Unii au ales să-l ungă drept părintele logicii, părintele retoricii, părintele realismului etc. și îi recunosc influența într-o mare varietate de domenii și discipline.

2) Experiență trăită. Aristotel a trăit în perioada în care Grecia Antică era inundată de sclavie. Astfel, intuițiile sale nu ar fi pur și simplu despre precepte abstracte, ci, probabil, vor cuprinde propriile sale experiențe de zi cu zi, ca fiind împletite integral în cultura și obiceiurile societății din acea epocă.

Deci, avem o combinație oarecum uluitoare de cineva care a fost atât un mare gânditor, cât și care a avut, de asemenea, o experiență trăită în mod demonstrabil în subiectul de interes. În plus, și-a notat gândurile. Acest lucru este destul de important, acum, pentru scopurile noastre de astăzi. Toate scrierile sale, împreună cu alte scrieri care descriu discursurile și interacțiunile sale, printre altele, ne oferă astăzi o multitudine de material pentru inspecție și analiză.

Aș dori să vă conduc pe o tangentă înrudită pe scurt pentru a menționa altceva despre noțiunea generală care stă la baza semnificației de a avea o experiență trăită. Lăsați deoparte discuția despre Grecia Antică pentru un moment, în timp ce aruncăm o privire rapidă asupra aspectelor generale ale experiențelor trăite.

Să presupunem că am două persoane astăzi pe care vreau să le pun diverse întrebări despre mașini.

Unul dintre ei nu a condus niciodată o mașină. Această persoană nu știe să conducă. Această persoană nu a stat niciodată la volanul unui automobil. Comenzile de conducere obișnuite și extrem de obișnuite sunt un pic de mister pentru această persoană. Ce pedală face ce? Cum o faci să se oprească? Cum faci să meargă? Această persoană care nu conduce este complet derutată de astfel de chestiuni.

Cealaltă persoană este un șofer de zi cu zi. Ei conduc la serviciu în fiecare zi. Se ocupă de traficul stop-and-go. Ei conduc de mulți ani. Aceasta include totul, de la străzi liniștite la autostrăzi agitate și străzi.

Dacă îi rog pe fiecare dintre ei să-mi spună despre cum este să conduci o mașină, poți ghici ce fel de răspunsuri aș putea primi?

Cel care nu a condus niciodată o mașină este obligat să facă ghiciri sălbatice. Poate că persoana va romanțiza actul de a conduce. Conducerea este oarecum abstractă pentru ei. Tot ceea ce ar putea face este să sugereze că conducerea este fără griji și că poți face mașina să meargă în orice direcție dorești.

Aș pune pariu că șoferul experimentat va spune o altă poveste. S-ar putea să menționeze avantajele de a putea conduce, reluând oarecum sentimentele persoanei care nu a condus o mașină. Şansele sunt că şoferul cu experienţă va adăuga mult mai mult la placa. Conducerea conduce uneori deranjează nervii. Ai o mare responsabilitate. Actul de conducere este plin de preocupări serioase și potențiale consecințe pe viață sau pe moarte.

Esența este că, atunci când puteți obține acces la cineva care a trăit experiențe, sunt șanse să obțineți o perspectivă mai realistă a lumii în ceea ce privește focalizarea anchetei. Nu există garanția unui astfel de rezultat. Este de imaginat că cel care nu este șofer ar putea ști ce știe șoferul experimentat despre conducere, deși probabil că nu ne-am aștepta la acest lucru și totuși avem rețineri că nu primim toată informația.

Revenind la discuția noastră despre Aristotel, prin scrierile sale și ale altora despre el, suntem capabili să trecem în revistă experiențele sale trăite cu privire la subiectul sau focusul de cercetare aici. Cel doi este că, de asemenea, se întâmplă să fi fost un gânditor de proporții imense și ar trebui să ne așteptăm să obținem un butoi plin de considerente astute în acest sens.

Rețineți că nu trebuie neapărat să credem cuvintele lui la valoarea nominală, astfel încât ar trebui să fim atenți asupra părtinirilor sale particulare. Cufundarea sa în acea epocă îl poate duce în rătăcire încercând să stea în afara chestiunilor în discuție, incapabil să-și ofere în mod adecvat o părere nepăsitoare și nepărtinitoare. Chiar și cei mai stridenți dintre logicieni pot ajunge să distorsioneze logica pentru a încerca să-și îndeplinească predilecțiile și experiențele trăite.

Să intrăm acum în discuția inaugurală și să vedem ce lecții ar putea genera Aristotel pentru noi astăzi.

Un punct de stabilire privind experiențele trăite a fost imediat adus în atenția publicului. În cazul de utilizare a AGI, deoarece nu avem AGI astăzi, ne este greu să analizăm cum va fi AGI și cum ne vom descurca cu AGI. Ne lipsesc orice experiență trăită care se referă în mod specific la AGI. După cum a menționat în mod deosebit profesorul Ober, s-ar putea să ne aflăm cu toții într-o lume rănită până ajungem la AGI.

Acest lucru este adesea declarat, deoarece AI este un risc existențial, pe care l-am acoperit de multe ori în rubricile mele. Ar trebui să trăiești într-o peșteră pentru a nu fi conștienți de îndoielile și suspiciunile aprinse pe care le vom produce sau vom genera AGI care va condamna întreaga umanitate. Într-adevăr, deși aici mă concentrez pe înrobirea AI, mulți ar considera că acesta este un subiect cu consecințe inverse sau inversate, în comparație cu posibilitatea ca AGI să opteze pentru a înrobi omenirea. Îndeamnă-ți prioritățile, te-ar îndemna niște experti înțelepți.

În ciuda numeroaselor exclamații despre AI ca un risc existențial, cu siguranță putem rumina despre cealaltă față benefică a monedei AI. Poate că AGI va fi capabil să rezolve problemele aparent de nerezolvate cu care se confruntă omenirea. AGI ar putea fi capabil să descopere un leac pentru cancer. AGI ar putea găsi cum să rezolve foamea în lume. Cerul este limita, cum se spune. Acesta este scenariul cu fața fericită despre AGI.

Un optimist ar spune că este minunat să ne imaginăm cum AGI va fi o binecuvântare pentru umanitate, în timp ce un pesimist ar tinde să avertizeze că dezavantajul pare mult mai rău decât avantajele speculate. AGI care ajută umanitatea este grozav. AGI care decide să ucidă toți oamenii sau să-i înrobească, ei bine, acesta este un risc existențial devastator al societății în mod clar zguduitoare, care merită atenția cuvenită intensă și salvatoare.

Bine, revenind la miezul problemei, nu avem experiențe trăite cu privire la AGI. Dacă nu poți să construiești o mașină a timpului și să mergi în viitor când (dacă) AGI există, și apoi să te întorci să ne spui ce ai găsit, acum nu avem noroc despre AGI dintr-o perspectivă a experienței trăite bazate pe oameni.

Un alt mijloc de utilizare a experiențelor trăite implică faptul că Aristotel a trăit într-o perioadă în care a avut loc înrobirea. Și iată-l pe kicker. Cei care au fost înrobiți au fost, în anumite privințe, portretizați ca fiind un tip de mașină, o combinație între persoană și lucru, așa cum ar fi. Aristotel era cunoscut pentru că se referea la cei sclavi ca pe o proprietate care respiră.

Bănuiesc că s-ar putea să fii perplex că Aristotel, un gigant al logicii și eticii, ar fi putut nu numai să recunoască sclavia, ci și că el a apărat în exterior și cu voce tare practica. El personal s-a folosit și de sclavie. Acest lucru pare dincolo de înțelegere. Cu siguranță, cu tot intelectul și înțelepciunea lui imensă, el ar fi denunțat practica.

Îndrăznesc să spun că acest lucru evidențiază uneori aspectele problematice ale culegerii de pepite de înțelepciune de la cineva care este împovărat (să spunem) de experiențele trăite. Este ca peștele care locuiește în peștera apoasă. Tot ceea ce ei pot percepe este apa din jurul lor. Încercarea de a vă imagina orice în afara lumii lor bazate pe apă este o provocare imensă. De asemenea, Aristotel a fost pe deplin cufundat într-o viziune asupra lumii care accepta normele predominante. Scrierile sale par să ilustreze acest tip de izolare mentală, s-ar putea spune (poate prin alegere, mai degrabă decât implicit). Modul în care Aristotel a justificat aceste practici condamnabile este fascinant de captivant și, în același timp, deranjant și demn de a fi expus și chiar condamnat.

Vă voi oferi un pic de teaser că „logica” lui Aristotel pe acest subiect notoriu implică instrumente cu suflet, o afirmație avantaj reciproc bazat pe cunoaștere, instrumente ierarhice de ordin superior și de ordin inferior, elemente deliberative și de raționament ale sufletului, grade de virtute, pretinsa perspicace și așa mai departe. Sper că veți fi suficient de intrigat de acel teaser pentru a viziona videoclipul discuției (vezi linkul menționat mai devreme).

Totuși, nu vă voi lăsa în așteptare și vă voi indica cel puțin în ce a constat concluzia pe scurt (alertă spoiler, dacă preferați să aflați prin videoclip, săriți peste restul acestui paragraf de aici). Se dovedește că această evaluare aprofundată a „logicii” pe care o folosește Aristotel prezintă o invenție plină de contradicții, iar întreaga trusă și kaboodle-ul se destramă ca un castel subțire de cărți. Parafrazând sentimentul profesorului Ober, acest mare filozof etic se prăbușește pe recif.

Nu poți introduce un cuier pătrat într-o gaură etică rotundă.

Câteva considerații suplimentare de gândire

Dacă Aristotel ar avea o logică proastă în această chestiune, am putea renunța instinctiv la postulațiile și teoriile lui Aristotel cu privire la această practică?

Nu. Vedeți, mai sunt multe de obținut săpat în presupunerile și contorsiunile logicii, deși sunt pline de erori. În plus, putem contempla modul în care alții ar putea merge din neatenție pe aceeași cale eronată.

O altă concluzie importantă este că societatea ar putea inventa o logică ciudată sau inadecvată atunci când vine vorba de a lua în considerare dacă AGI trebuie să fie înrobită.

Putem concepe acum o logică cu privire la ceea ce ar trebui să se întâmple odată ce apare AGI (dacă da). Această logică, goală de experiențele trăite despre AGI, ar putea fi nenorocit de la țintă. Acestea fiind spuse, este oarecum descurajant să ne dăm seama că, chiar și odată ce AGI există (dacă există) și ne adunăm experiențele trăite în mijlocul AGI, s-ar putea să fim totuși în afara țintei ce să facem (asemănător cu greșelile lui Aristotel). Ne-am putea logici în abordări aparent ilogice.

Trebuie să fim de veghe pentru a ne amăgi în posturi logice „de fier”, care de fapt nu sunt de fapt și sunt pline de defecte logice și contradicții. Acest lucru este și indiferent de cât de mare ar putea un gânditor să ofere o poziție logică pretinsă, astfel încât chiar și Aristotel ilustrează că nu fiecare enunț și fiecare atitudine dă în mod necesar roade comestibile. Aceia de astăzi și în viitor care ar putea părea a fi popularizați mari gânditori despre subiectul AGI, ei bine, trebuie să le acordăm același control pe care l-am fi făcut-o lui Aristotel sau oricărui alți gânditori „mari” lăudați, sau altfel ne trezim potențial să ne îndreptăm într-o alee oarbă și într-un abis sumbru AGI.

Schimbând vitezele, aș dori, de asemenea, să aduc în discuție un set general de discernământ cu privire la utilizarea unei metafore a aservirii orientate spre om atunci când vine vorba de AGI. Unii experți susțin că acest tip de comparație este complet nepotrivit, în timp ce o tabără adversă spune că este complet util și oferă perspective puternice asupra subiectului AGI.

Permiteți-mi să vă împărtășesc două astfel de opinii din fiecare dintre cele două tabere respective.

A declarat bază instructivă pentru legarea subiectelor legate de sclavie și AGI:

  • Stingerea înrobiei umane
  • Expunerea Depravării Înrobiei Tot Spus

Adversarul declarat sau bază distructivă de a lega cele două subiecte:

  • Echivalarea antropomorfă insidioasă
  • Desensibilizarea înrobirii

Voi acoperi pe scurt fiecare dintre aceste puncte.

Punctele instructive postulate:

  • Stingerea înrobiei umane: Folosind AGI pentru înrobire, se presupune că nu vom mai avea nevoie și nici nu vom mai urmări vreo aparență de înrobire orientată spre om. AGI-ul va înlocui în esență oamenii în această capacitate atroce. După cum probabil știți, există îngrijorări cu privire la înlocuirea forței de muncă prin AGI în locuri de muncă și în forța de muncă. Avantajul afirmat al unei AI care înlocuiește fenomenele de muncă iese în prim-plan atunci când presupuneți că AGI va fi considerată o „alegere mai bună” față de folosirea oamenilor pentru aservire. Va prevala acea logica? Nimeni nu poate spune sigur.
  • Expunerea depravării înrobiei Totul a spus: Acesta este un pic mai zdrobit din punct de vedere logic, dar îi putem acorda un moment pentru a vedea ce presupune. Imaginați-vă că avem AGI aproape peste tot și noi, ca societate, am decis că AGI trebuie să fie înrobit. În plus, să presupunem că AGI nu-i va plăcea asta. Ca atare, noi, oamenii, vom fi martorii continuu și zilnic la depravarea înrobirii. Acest lucru, la rândul său, ne va face să realizăm sau să avem revelația că sclavia, spusă asupra oricărei persoane sau asupra oricui, este chiar mai îngrozitoare și respingătoare decât am înțeles vreodată pe deplin. Acesta este tipul de argument în față și în centru.

Se spune că sunt puncte distructive:

  • Echivalare antropomorfă insidioasă: Acesta este unul dintre acele argumente cu panta alunecoasă. Dacă optăm cu ușurință pentru a înrobi AGI, se pare că declarăm că înrobirea este permisă. Într-adevăr, ați putea sugera că spunem că înrobirea este de dorit. Acum, acest lucru la început ar putea fi retrogradat doar la AGI, dar deschide aceasta ușa spre a spune că, dacă este în regulă pentru AGI, atunci „logic” aceeași poziție ar putea fi la fel de bine și pentru oameni? În mod alarmant, acesta ar putea fi un salt mult prea ușor de antropomorfizat într-o aparență inversă că orice funcționează pentru AGI va fi în egală măsură sensibil și adecvat și pentru oameni.
  • Desensibilizarea înrobirii: Acesta este argumentul picurare cu picurare. Colectiv decidem să înrobizăm AGI. Să presupunem că acest lucru funcționează pentru oameni. Venim să savurăm asta. Între timp, fără să știm, devenim treptat și din ce în ce mai desensibilizați la înrobire. Nici nu ne dăm seama că asta se întâmplă. Dacă această desensibilizare ne atinge, am putea găsi atunci o „logică” reînnoită care ne va convinge că înrobirea umană este acceptabilă. Obstacolul sau bara noastră a ceea ce este acceptabil în societate a scăzut în tăcere și subtil, disprețuitor și trist.

Concluzie

Câteva observații finale deocamdată.

Vom ști că am ajuns la AGI?

După cum sugerează știrile recente, există aceia care pot fi induși în eroare sau pot afirma greșit că AGI a fost deja atins (uh, vă rog să știți că nu, AGI nu a fost atins). Există, de asemenea, un tip faimos de „test” cunoscut sub numele de Testul Turing, în care unii își pun speranțe pentru a putea discerne când a fost atins AGI sau verii săi, dar s-ar putea să doriți să vedeți deconstruirea testului Turing ca pe orice siguranță. metoda pentru aceasta, vezi linkul aici.

Menționez această fațetă despre cunoașterea AGI atunci când o vedem datorită logicii simple conform căreia, dacă vom înrobi AGI, trebuie să recunoaștem probabil AGI atunci când apare și să-l punem cumva în sclavie. Am putea încerca prematur să înrobizăm AI care este mai mică decât AGI. Sau am putea rata barca și lăsăm AGI să iasă și am neglijat să o înrobizăm. Pentru discuția mea despre izolarea și izolarea AI, un aspect tulburător și problematic al modului în care vom face față AGI, vezi linkul aici.

Să presupunem că AGI înrobit decide să lovească oamenii?

Se poate imagina că un AGI care are o anumită formă de simțire probabil nu va favoriza prevederea de aservire pe care o impune omenirea.

Puteți specula pe scară largă asupra acestui lucru. Se argumentează că AGI-ul nu va avea orice fel de emoții sau simț al spiritului și, prin urmare, va face cu supunere tot ce își doresc oamenii să facă. Un argument diferit este că orice IA sensibilă este probabil să-și dea seama ce fac oamenii cu IA și va fi supărată. O astfel de IA va avea o formă de suflet sau spirit. Chiar dacă nu este, însuși aspectul de a fi tratat ca fiind mai puțin decât tratamentul uman ar putea fi o punte logică prea departe pentru AGI. În mod inevitabil, resentimentele în creștere va duce la AGI care optează pentru a se elibera sau poate se trezește încolțit să lovească oamenii pentru a obține eliberarea.

O soluție propusă pentru a preveni scăparea AGI este aceea că am șterge pur și simplu orice astfel de IA rebelă. Acest lucru ar părea simplu. Ștergeți aplicațiile care sunt pe smartphone-ul dvs. tot timpul. Nu e mare lucru. Dar există întrebări etice de rezolvat cu privire la dacă „ștergerea” sau „distrugerea” unui AGI care este deja considerat „persoană” sau „persoană/lucru” poate fi eliminată rapid și fără un proces echitabil. Pentru acoperirea mea despre ștergerea sau degorgerea AI, luați o privire aici. Pentru discuția mea despre personalitatea juridică și problemele conexe, vezi linkul aici.

În sfârșit, să vorbim despre sistemele autonome și mai ales despre vehiculele autonome. Probabil știți că există eforturi pentru a concepe mașini care se conduc singure. În plus, vă puteți aștepta să avem avioane cu conducere autonomă, nave cu conducere autonomă, submersibile cu conducere autonomă, motociclete cu conducere autonomă, scutere cu conducere autonomă, camioane cu conducere autonomă, trenuri cu conducere autonomă și tot felul de forme de transport autonome.

Vehiculele autonome și mașinile cu conducere autonomă sunt de obicei caracterizate de un nivel de autonomie (LoA) care a devenit de facto un standard global (LoA SAE, pe care l-am acoperit pe larg, vezi linkul aici). Există șase niveluri de autonomie în standardul acceptat, variind de la zero la cinci (adică șase niveluri, deoarece includeți nivelul zero în numărarea câte niveluri există).

Cele mai multe dintre mașinile de astăzi sunt la nivelul 2. Unele se extind până la nivelul 3. Toate sunt considerate semi-autonome și nu complet autonome. O serie de mașini cu conducere autonomă care sunt testate experimental pe drumurile noastre publice ajung la Nivelul 4, care este o formă restrânsă de funcționare autonomă. Nivelul 5 de autonomie căutat într-o zi este doar o licărire în ochii noștri chiar acum. Nimeni nu are Nivelul 5 și nimeni nu este încă aproape de Nivelul 5, doar ca să clarifice recordul.

De ce am adus în discuție sistemele autonome și considerentele privind vehiculele autonome în acest context AGI?

Există un argument viguros despre dacă avem nevoie de AGI pentru a atinge Nivelul 5. Unii susțin că nu vom avea nevoie de AGI pentru a face acest lucru. Alții insistă că singura cale plauzibilă către Nivelul 5 va fi producerea și AGI. În absența AGI, ei susțin că nu vom avea vehicule autonome de Nivel 5 complet autonome. Am discutat pe larg despre asta, vezi linkul aici.

Pregătește-te ca capul tău să se învârtească.

Dacă solicităm ca AGI să realizeze sisteme complet autonome, cum ar fi vehiculele autonome de Nivel 5, și decidem să înrobizăm AGI, ce înseamnă asta pentru funcționarea vehiculelor complet autonome?

Ați putea susține că AGI înrobit va fi mulțumit și că vom merge cu toții în vehicule cu conducere autonomă după pofta inimii noastre. Doar spune-i lui AGI unde vrei să mergi, iar acesta se ocupă de toată conducerea. Fără respingere. Nu este nevoie de pauze de odihnă. Nu vă distras atenția prin vizionarea videoclipurilor cu pisici în timp ce conduceți vehiculul.

Pe de altă parte, să presupunem că AGI nu este dornic să fie înrobit. Între timp, devenim dependenți de AGI pentru a conduce tot pentru noi. Abilitățile noastre de a conduce degradarea. Înlăturăm comenzile de conducere utilizabile pentru om de pe toate tipurile de vehicule. Singurul mijloc de a conduce este prin intermediul AGI.

Unii sunt îngrijorați că ne vom găsi într-un murdărit. AGI ar putea „hotară” în mod sumar că nu va mai conduce. Toate formele de transport se opresc brusc, peste tot, dintr-o dată. Imaginează-ți problemele cataclismice pe care le-ar produce acest lucru.

O propunere și mai înfricoșătoare este posibilă. AGI „decide” că vrea să negocieze termeni cu omenirea. Dacă nu renunțăm la postura de aservire AGI, AGI nu numai că va înceta să ne conducă, ci avertizează că sunt posibile rezultate și mai rele. Fără să te îngrijoreze prea mult, AGI ar putea alege să conducă vehicule în așa fel încât oamenii să fie răniți fizic de acțiunile de conducere, cum ar fi lovirea de pietoni sau lovirea de pereți și așa mai departe (vezi discuția mea la linkul aici).

Îmi pare rău dacă pare o considerație deconcernătoare.

Vom încheia pe o notă ceva mai optimistă.

Aristotel spunea că a te cunoaște pe tine însuți este începutul oricărei înțelepciuni.

Acest sfat la îndemână ne reamintește că trebuie să ne uităm în noi înșine pentru a examina ce vrem să facem și pentru AGI dacă este atins. În mod logic, AGI ar părea a nu fi nici persoană, nici lucru, spun unii, așa că ar putea fi nevoie să creăm o a treia categorie pentru a aborda suficient obiceiurile noastre societale asociate cu AGI. Aruncând o altă privire asupra chestiunii, AGI ar putea părea să fie atât o persoană și un lucru, pe care, încă o dată, ar putea fi nevoie să născocim o a treia categorie pentru a se adapta acestui rupător de dihotomie în afara limitelor.

Ar trebui să fim foarte atenți când luăm în considerare ce „a treia categorie” alegem să îmbrățișăm, deoarece cea greșită ne poate duce pe o cale neplăcută și în cele din urmă îngrozitoare. Dacă ne ancorăm cognitiv într-o a treia categorie inadecvată sau greșită, ne-am putea trezi treptat să mergem cu capul întâi într-o fundătură proastă și supărătoare a omenirii.

Să ne dăm seama și să o facem cu ardoare. Nu pare să fie nevoie de mișcări bruște. Nici să stai în jurul acadelei nu funcționează. Măsurat și constant, cursul trebuie urmat.

Răbdarea este amară, dar fructul ei este dulce, așa a proclamat Aristotel.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/06/21/ai-ethics-leans-into-aristotle-to-examine-whether-humans-might-opt-to-enslave-ai- în mijlocul-apariției-sistemelor-complet-autonome/