Etica AI pune sub semnul întrebării clonarea vocii umane, cum ar fi cea a rudelor tale decedate, destinată utilizării în sistemele autonome AI

Hopa, o bucată de tehnologie nouă aparent captivantă s-a băgat pe ea însăși și pe producătorul său într-un pic de apă fierbinte.

Mă refer la apariția clonării vocii umane bazate pe inteligență artificială ca la noua tehnologie care a reușit să intre în știrile din titlul oh-my-gosh din ultima vreme. În acest caz, compania este Amazon și Alexa, în continuă evoluție.

Cititorii rubricii mele s-ar putea să-și amintească că am vorbit anterior despre huiduiala nepotrivită care a avut loc când s-a raportat că un tânăr a fost încurajat de Alexa să pună un ban într-o priză electrică (nu face asta!), vezi acoperirea mea la adresa linkul aici. În această circumstanță, din fericire, nimeni nu a fost rănit, iar consecința a fost că, aparent, sistemul Alexa AI a preluat o tendință virală anterioară și, fără nicio aparență de evaluare de bun-simț, a repetat doar sugestia nebunească atunci când i-a fost cerut ceva distractiv de făcut. un copil care interacționează cu Alexa. Acest lucru evidențiază preocupările legate de etica AI că suntem inundați de IA care nu are în totalitate orice aparență de raționament de bun-simț, o problemă deosebit de dificilă cu care se confruntă AI, care continuă să sfideze eforturile de a întruchipa în AI (pentru analiza mea despre derivarea bunului simț bazat pe AI). eforturi, vezi linkul aici).

Cel mai recent dustup implică efectuarea clonării vocii, cunoscută și sub numele de replicare a vocii. Cele mai recente în astfel de tehnologie și AI ridică considerații presante de etică AI și AI etică. Pentru acoperirea mea generală în curs de desfășurare a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Clonarea vocii bazată pe inteligență artificială este un concept simplu.

Un sistem AI este programat să înregistreze audio unele dintre cuvintele tale rostite. AI încearcă apoi să-ți descopere tiparele de vorbire prin calcul. Pe baza tiparelor de vorbire detectate, AI încearcă apoi să emită vorbire audio care sună la fel ca tine. Partea dificilă este că discursul acoperă cuvinte pe care nu le-ați furnizat anterior ca mostre audio către AI. Cu alte cuvinte, AI trebuie să estimeze matematic modul în care cuvintele ar putea fi rostite de tine. Aceasta include toate caracteristicile vorbirii, cum ar fi tonul, ridicarea și coborârea vocii, ritmul sau viteza vorbirii și așa mai departe.

Când auziți că un om încearcă să-și usureze identitatea unui alt om, de obicei puteți discerne că efortul este o uzurpare a identității. Pe termen scurt, cum ar fi dacă imitatorul folosește doar câteva cuvinte, ar putea fi dificil să ne dăm seama că vocea nu este vorbitorul original. În plus, dacă imitatorul imită cuvintele pe care vorbitorul inițial le-a spus de fapt, șansele sunt că își pot acorda propria voce la vocea celeilalte persoane, cu atât mai mult pentru acea expresie anume.

Concizia și auzirea exactă a acelorași cuvinte pot permite cuiva să obțină o uzurpare a identității.

Provocarea devine acoperirea cuvintelor pe care cealaltă persoană nu le-a rostit sau pentru care imitatorul nu a auzit niciodată persoana respectivă rostind acele cuvinte specifice. Sunteți oarecum în întuneric să încercați să vă dați seama cum ar fi spus persoana imitată acele cuvinte. Vestea bună este că, dacă altcineva care îl ascultă pe imitator, de asemenea, nu știe cum ar fi spus persoana inițială cuvintele, imitatorul poate fi relativ departe de vocea adevărată și totuși să pară dandy și la țintă.

De asemenea, aș dori să elimin momentan din ecuație manierismele și mișcarea fizică a uzurparei. Când vezi un imitator, s-ar putea să fii influențat dacă este capabil să-și încrețească fața sau să-și bată brațele într-un mod care imită și persoana care ia fost interpretată. Indiciile adăugate ale corpului și ale feței vă vor păcăli mintea făcându-vă să creadă că vocea este, de asemenea, aprinsă, chiar dacă s-ar putea să nu fie. Un purist în uzurparea identității vocii ar insista că doar vocea ar trebui să fie folosită ca criteriu pentru a determina dacă vocea imită în mod adecvat persoana care a fost uzurată.

Cu siguranță ați văzut diversele videoclipuri deepfake care circulă în aceste zile pe rețelele sociale. Cineva reproșează în mod inteligent un videoclip pentru ca chipul altcuiva să apară în videoclip, suprapunând o față care era a altcuiva în înregistrarea originală. De obicei, acest lucru este însoțit și de un deepfake asupra vocii. Primiți un dublu zgomot, care implică modificarea vizuală a videoclipului prin intermediul AI deepfake și modificarea sunetului prin AI deepfake.

De dragul discuțiilor de aici, mă concentrez doar pe fațetele audio deepfake bazate pe inteligență artificială, care, așa cum am menționat mai devreme, sunt denumite în mod obișnuit clonarea vocii sau replicarea vocii. Unii se referă la asta ca fiind o voce într-o cutie.

Sunt sigur că unii dintre voi îndeamnă acum că avem capacitatea de a folosi programe de calculator pentru clonarea vocilor de ceva vreme. Acest lucru nu este nimic nou în sine. Sunt de acord. În același timp, trebuie să recunoaștem că această capacitate de înaltă tehnologie devine din ce în ce mai bună. Ei bine, spun din ce în ce mai bine, dar poate, după cum vei vedea într-o clipă, ar trebui să spun că devine din ce în ce mai îngrijorător și mai îngrijorător.

Ține-te de acel gând.

Cu siguranță, priceperea tehnologică avansează pentru a realiza clonarea vocii. De exemplu, obișnuia să fi fost nevoit să „antreneze” un program de replicare audio AI rostind o poveste întreagă de cuvinte combinate. Asemănător cu celebra sau infama replică a vulpei maro iute care a sărit peste câinele leneș (o replică menită să determine pe cineva să acopere toate literele alfabetului), există nuvele special concepute care conțin un amestec de cuvinte în scopul să te facă să spui suficiente cuvinte și o varietate suficient de largă de cuvinte pentru a face mult mai ușoară potrivirea modelului AI.

S-ar putea să fi fost nevoit să citiți mai multe pagini de cuvinte, de multe ori incluzând cuvinte pe care vă chinuiți să le pronunțați și nici măcar nu sunteți sigur ce înseamnă, pentru a permite în mod suficient să apară potrivirea modelelor AI. Acest lucru ar putea dura multe minute sau uneori ore de vorbit pentru a oferi AI suficient sunet pentru a-l folosi pentru a găsi modele distincte ale vocii tale. Dacă ați modificat această activitate de antrenament, erau șanse ca replicarea vocii rezultată să fie doborâtă cu ușurință de orice prieten de-al vostru care vă cunoaște bine vocea.

Bine, interesul dezvoltatorilor AI sa concentrat pe modul de optimizare a aspectelor de replicare audio. Constructorii de AI se bucură de provocări. Se spune că sunt optimizatori în inimă. Dă-le o problemă și vor tinde să se optimizeze, indiferent unde ar putea duce asta (menționez asta ca prefigurare, care va deveni mai clară în scurt timp).

Raspunde-mi asta:

  • Care este cea mai mică cantitate de eșantion audio care ar fi necesară pentru a clona la maximum vocea unei persoane și pentru care proba audio poate fi aproape orice set de cuvinte permis aleatoriu și totuși permite clonării vocii să producă aproape orice cuvinte care ar putea fi rostite vreodată prin vocea vizată și sunetul în esență identic cu vocea acelei persoane într-o conversație sau alte setări contextuale alese?

Sunt multe acolo de despachetat.

Rețineți că doriți eșantionul audio minim care va clona la maximum o voce, astfel încât enunțurile AI rezultate în acea voce replicată automatizată să pară complet indistincte de persoana reală. Acest lucru este mai complicat decât ați putea crede.

Este aproape ca acel spectacol de jocuri în care trebuie să încerci să numești o melodie pe baza celui mai mic număr de note auzite. Cu cât sunt mai puține notele jucate, cu atât este mai greu de ghicit ce melodie este. Dacă presupunerea ta este greșită, pierzi punctele sau pierzi jocul. Urmează o luptă dacă ar trebui să folosiți o singură notă, cel mai mic indiciu posibil, dar probabil că probabilitatea dvs. de a ghici melodia este foarte redusă. Cu cât auziți mai multe note, cu atât este mai mare probabilitatea de a ghici melodia corectă, dar le permiteți și altor concurenți să aibă șanse mai mari de a ghici.

Amintiți-vă că avem de-a face și cu noțiunea de cuvinte prescrise față de orice cuvinte în cazul clonării vocii. Dacă o persoană spune cuvintele „Nu poți să te descurci cu adevărul” și dorim ca AI să imite sau să o imite persoana, AI din punct de vedere computațional poate prinde cu ușurință modelul. Pe de altă parte, să presupunem că avem doar aceste cuvinte rostite de acea persoană „Asta este tot ce trebuie să mă întrebi” și dorim să folosim acele cuvinte pentru ca apoi AI să spună „Nu poți face față adevărului”. Cred că poți vedea dificultatea de a te antrena pe un set de cuvinte și de a trebui să extrapolezi la un set complet diferit de cuvinte.

Un alt element anevoios constă în contextul cuvintelor rostite. Să presupunem că te facem să înregistrezi audio o propoziție atunci când ești calm și în largul tău. AI modelează aceste cuvinte. S-ar putea, de asemenea, să se modeleze pe calmul vocii tale. Imaginați-vă că atunci vrem ca AI să pretindă că ești tu atunci când țipi nebun și furios ca un hornet. Faptul ca AI să distorsioneze modelul original pentru a deveni o versiune corectă a vocii tale înfuriată poate fi descurajantă.

La ce fel de minime ne uităm?

Scopul acum este de a sparge marcajul minutelor.

Luați o voce înregistrată pentru care aveți mai puțin de un minut de sunet și faceți AI să facă toată clonarea uimitoare a vocii din acel eșantion minuscul. Vreau să clarific că aproape oricine poate compune AI care poate face asta în general în mai puțin de un minut, deși clona de voce rezultată este slabă și ușor detectată ca incompletă. Din nou, leg în mod explicit și categoric că timpul de eșantionare este minim și intre timp clonarea vocii este la maxim. Un dolt poate obține o eșantionare minimă dacă li se permite, de asemenea, să fie extrem de submaximal în clonarea vocii.

Aceasta este o provocare tehnologică distractivă și interesantă. S-ar putea să vă întrebați despre valoarea sau meritele de a face acest lucru. În ce scop căutăm? La ce beneficii pentru umanitate ne putem aștepta dacă putem face atât de eficient și eficient replicarea vocii bazată pe inteligență artificială?

Vreau să te gândești la întrebarea aceea plină de carne.

Răspunsul greșit te poate duce din neatenție într-o grămadă de zgârieturi.

Iată ceva care pare optimist și cu totul pozitiv.

Să presupunem că am putea avea înregistrări vechi ale unor oameni celebri precum Abraham Lincoln și că am putea folosi acele fragmente audio prăfuite pentru a crea o clonă de voce bazată pe inteligență artificială. Apoi l-am auzit pe Lincoln rostind Discursul de la Gettysburg ca și cum am fi acolo în ziua în care a rostit discursul memorabil cu patru zeci și șapte ani în urmă. Ca o notă secundară, din păcate, nu avem înregistrări audio ale vocii lui Lincoln (tehnologia nu exista încă), dar avem înregistrări vocale ale președintelui Benjamin Harrison (primul dintre președinții SUA care a avut o înregistrare vocală realizată din ) și alți președinți ulterior.

Cred că toți am fi de acord în mod rezonabil că această utilizare specifică a clonării vocii bazate pe AI este perfect în regulă. De fapt, probabil ne-am dori acest lucru mai mult decât dacă un actor ar încerca astăzi să pretindă că vorbește ca Lincoln. Probabil că actorul ar inventa cum credeau că suna vocea reală a lui Lincoln. Ar fi o născocire, poate foarte îndepărtată de ceea ce era vocea lui Lincoln. În schimb, prin utilizarea unui sistem de clonare a vocii AI bine calificat, ar exista puține discuții despre cum suna cu adevărat vocea lui Lincoln. Inteligența artificială ar fi corectă din punct de vedere faptic, cel puțin în măsura în care este de bună IA la replicarea vocii vizate.

În categoria bunătății despre clonarea vocii AI, putem obține un câștig cu acest tip de caz de utilizare.

Nu vreau să fiu sumbru, dar există un dezavantaj chiar și la această utilizare aparent totală.

Cineva folosește un sistem de clonare a vocii AI pentru a afla vocea lui Theodore Roosevelt („Teddy”), prețuitul nostru 26th Președinte al Statelor Unite, naturalist, conservaționist, om de stat, scriitor, istoric și aproape universal etichetat ca o persoană stimată. Discursurile pe care le-a ținut și pentru care nu avem versiuni audio păstrate istoric ar putea fi acum „pronunțate” ca și cum el personal ar fi vorbit astăzi. Un impuls lăudabil pentru studiul istoriei.

Să facem asta urât, pur și simplu pentru a dezvălui dezavantajele acestuia.

Folosim clona vocală bazată pe Teddy AI pentru a citi un discurs care a fost ținut de un dictator rău. AI nu-i pasă de ceea ce vorbește, deoarece nu există nicio aparență de simțire în AI. Cuvintele sunt pur și simplu cuvinte, sau mai exact doar pufături de sunet.

S-ar putea să fii îngrozit că cineva ar face ceva din această natură subtilă. De ce dracu’ vocea clonată bazată pe inteligență artificială a renumitului și veneratul Theodore Roosevelt ar fi folosită pentru a ține un discurs pe care nu numai că Teddy nu l-a făcut inițial, dar și pe deasupra vorbește despre un subiect care descrie o oarecare răutate a unui dispreț dictator?

Revoltător, ați putea exclama.

Ușor de făcut, vine răspunsul.

În esență, o preocupare foarte importantă cu privire la replicarea vocii bazată pe inteligență artificială este că ne vom trezi brusc inundați de falsuri sau spunem discursuri și enunțuri false care nu au nimic de-a face cu fapte sau acuratețe istorice. Dacă sunt făcute și promulgate suficiente dintre acestea, am putea deveni confuzi între ceea ce este realitate și ceea ce este ficțiune.

Puteți vedea din abundență cum ar putea apărea acest lucru. Folosind o clonă de voce bazată pe inteligență artificială, cineva realizează o înregistrare audio a lui Woodrow Wilson ținând un discurs pe care nu l-a ținut niciodată. Acesta este postat pe internet. Altcineva aude înregistrarea și crede că este adevărată. O postează în altă parte, menționând că au găsit această mare înregistrare istorică a lui Woodrow Wilson. În curând, studenții de la orele de istorie folosesc audio în loc să citească versiunea scrisă a discursului.

Nimeni nu ajunge să știe dacă discursul a fost ținut de Woodrow Wilson sau nu. Poate că a fost, poate nu a fost, și toată lumea își dă seama că nu contează cu adevărat în nici un caz (ei bine, cei care nu se concentrează pe acuratețea istorică și pe fapte). Desigur, dacă discursul este unul ticălos, aceasta dă o impresie greșită sau o dezinformare a figurii istorice. Istoria și ficțiunea sunt îmbinate într-una singură.

Am încredere că sunteți, sperăm, convins că acesta este un dezavantaj asociat clonării vocii bazate pe AI.

Din nou, putem deja să facem astfel de lucruri, făcând acest lucru fără replicarea vocii mai nouă și îmbunătățită bazată pe AI, dar va deveni mai ușor să facem acest lucru, iar sunetul rezultat va fi extrem de greu de diferențiat între real și fals. În zilele noastre, folosind programe convenționale de producție audio, puteți de obicei asculta ieșirea și adesea puteți constata cu ușurință că sunetul este fals. Odată cu progresele AI, în curând nu vei mai putea să-ți crezi urechilor, într-un fel de a spune.

Oricât de proastă ar fi clonarea vocii figurilor istorice, trebuie să ne gândim la utilizările, probabil, deosebit de flagrante pe care le implică oamenii vii de astăzi.

În primul rând, ați auzit vreodată de o înșelătorie oarecum populară care implică că cineva se uită la un șef sau echivalentul acestuia? În urmă cu câțiva ani, a existat un mod tulburător de a suna la un restaurant sau la un magazin și a se preface a fi șeful stabilimentului. Falsificarea ar implica să-i spună unui membru al personalului să facă lucruri ridicole, pe care deseori le-ar face cu respect, sub falsa credință că vorbesc cu șeful lor.

Nu vreau să mă încurc în astfel de acte de răutate înfurioase, dar o alta pertinentă constă în a chema pe cineva care ar putea fi greu de auzit și a pretinde a fi nepotul sau nepoata lor. Imitatorul încearcă să-l convingă pe bunicul să ofere bani pentru a-l ajuta sau poate să-i salveze într-un fel. Pe baza vocii usurate, bunicul este păcălit să facă asta. Josnic. Ruşinos. Trist.

Suntem pe cale să intrăm într-o eră în care clonarea vocii bazată pe inteligență artificială va permite pe steroizi, dacă ați fi, apariția înșelătoriilor și escrocherilor legate de voce. AI va face o muncă atât de remarcabilă de replicare a vocii, încât oricine aude vocea va jura pe jurământ că persoana reală a fost cea care a vorbit.

Cât de departe ar putea merge?

Unii sunt îngrijorați de faptul că lansarea armelor atomice și a atacurilor militare ar putea avea loc de către cineva care folosește o clonă de voce bazată pe inteligență artificială care îi păcălește pe alții să creadă că un ofițer militar de nivel superior emite o comandă directă. Același lucru s-ar putea spune despre oricine ocupă orice poziție proeminentă. Folosiți o clonă de voce AI extraordinar de precisă pentru a determina un director bancar să elibereze milioane de dolari în fonduri, făcând acest lucru pe baza faptului că vă lăsați păcăliți să creadă că vorbesc cu clientul bancar la îndemână.

În anii trecuți, a face asta cu AI nu ar fi fost neapărat convingător. În momentul în care omul de la celălalt capăt al telefonului începe să pună întrebări, AI-ul ar trebui să se îndepărteze de un scenariu pregătit. În acel moment, clonarea vocii s-ar deteriora, uneori radical. Singurul mijloc de a menține escrocheria a fost să forțezi conversația înapoi în scenariu.

Cu tipul de inteligență artificială pe care îl avem astăzi, inclusiv progresele în procesarea limbajului natural (NLP), puteți renunța la un scenariu și, eventual, clona vocii AI pare să vorbească într-un mod natural conversațional (acesta nu este întotdeauna cazul, și mai există modalități de a declanșa AI).

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza clonării vocii bazate pe AI, să stabilim câteva elemente fundamentale suplimentare pe subiecte profund esențiale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a spus mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de IA ar putea ajunge să fie mai inteligentă decât oamenii.

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să ne întoarcem la concentrarea pe clonarea vocii bazată pe AI.

La o conferință recentă, o prezentare oferită de Amazon a fost menită să prezinte avantajele dezirabile ale clonării vocii bazate pe AI și să evidențieze cea mai recentă IA de vârf folosită în Alexa pentru a-și îmbunătăți capacitățile. Potrivit știrilor, un exemplu pregătit, care trebuia să fie încântător și optimist, a constat în a-i cere unui copil pe Alexa să o pună pe bunica să le termine de citit povestea despre Vrajitorul din Oz. Publicului i s-a spus că bunica a murit și că acesta a fost un mijloc pentru copil de a restabili legătura cu bunicul lor drag. Se pare că toate acestea au făcut parte dintr-un videoclip creat de Amazon pentru a ajuta la prezentarea celor mai recente descoperiri în clonarea vocii AI de către echipa de dezvoltare Alexa (cuprinzând funcții care nu au fost încă lansate oficial pentru uz public).

O reacție la acest exemplu este că am putea fi destul de mișcați că un copil ar putea auzi din nou vocea bunicii lor. Trebuie să presupunem că bunica nu a înregistrat deja o lectură completă a poveștii, astfel încât clonarea AI făcea munca de a face lucrurile să pară ca și cum bunica făcea acum întreaga lectura.

O modalitate remarcabilă și extraordinară de a ne reconecta cu cei dragi care nu mai sunt printre noi.

Nu toți reporterii și analiștii (plus Twitter) au fost atât de înclinați pentru o interpretare favorabilă a acestei progrese. Unii au etichetat asta ca fiind de-a dreptul înfiorător. Se spunea că încercarea de a recrea vocea unei persoane dragi decedate este o întreprindere ciudată și oarecum bizară.

Întrebările abundă, cum ar fi:

  • Copilul s-ar încurca și ar crede că persoana iubită decedată încă mai trăiește?
  • Ar putea acum copilul să fie condus la vreo farsă sau înșelătorie, sub falsa credință că bunica este încă cu noi?
  • Poate copilul să sufere de când a auzit despre persoana iubită decedată și să devină deznădăjduit din nou, ducându-și lipsa bunicului, ca și cum și-ar deschide răni emoționale deja instalate?
  • Va crede copilul că defunctul poate vorbi din cealaltă parte, și anume că această voce mistică care pare a fi tocmai bunica lui îi vorbește din mormânt?
  • Este de imaginat ca copilul să creadă că IA și-a întruchipat cumva bunica, antropomorfizând IA astfel încât copilul să crească crezând că AI poate replica în întregime oamenii?
  • Să presupunem că copilul devine atât de îndrăgostit de vocea replicată de AI a bunicii, încât tânărul devine obsedat și folosește vocea pentru toate felurile de ascultare audio?
  • Poate vânzătorul care reproduce vocea să opteze pentru a utiliza acea voce pentru alții folosind același sistem general, făcând acest lucru fără a obține permisiunea explicită din partea familiei și, astfel, „profitând” din vocea concepută?
  • Și așa mai departe.

Este important să realizați că puteți evoca la fel de multe negative câte pozitive sau să spunem atâtea pozitive cât și negative. Există compromisuri care stau la baza acestor progrese AI. Privirea doar la o parte a monedei este poate miope.

Cheia este să ne asigurăm că analizăm toate părțile acestor probleme. Nu fi întunecat în gândirea ta. Poate fi ușor să explorezi doar aspectele pozitive. Poate fi ușor să explorezi doar aspectele negative. Trebuie să le examinăm pe amândouă și să ne dăm seama ce se poate face pentru a profita de aspectele pozitive și să încercăm să reducem, să eliminăm sau cel puțin să le atenuăm negative.

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial. Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vital pentru producerea AI adecvată.

Pe lângă utilizarea eticii AI, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI, cum ar fi funcțiile de clonare a vocii bazate pe AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară.

Acestea fiind spuse, unii susțin că nu avem nevoie de noi legi care să acopere IA și că legile noastre existente sunt suficiente. De fapt, ei avertizează că, dacă vom pune în aplicare unele dintre aceste legi AI, vom ucide gâsca de aur limitând progresele AI care oferă avantaje societale imense. Vezi, de exemplu, acoperirea mea la linkul aici și linkul aici.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre clonarea vocii bazată pe inteligență artificială și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și clonarea vocii bazată pe inteligență artificială

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Să schițăm un scenariu care ar putea folosi clonarea vocii bazată pe inteligență artificială.

Un părinte și copilul lor se urcă într-o mașină autonomă bazată pe inteligență artificială. Ei merg la magazinul lor local. Se anticipează că aceasta va fi o călătorie relativ fără evenimente. Doar o mașină săptămânală până la magazin, deși șoferul este un sistem de conducere AI și părintele nu trebuie să conducă nimic.

Pentru un părinte, aceasta este un mare avantaj. În loc să fie nevoit să se concentreze pe direcție și să se ocupe de actul de a conduce, părintele își poate dedica atenția copilului lor. Ei se pot juca împreună în vehiculul autonom și pot petrece timp de o natură valoroasă. În timp ce părintele ar fi în mod normal distras de la volan și probabil devine anxios și încordat în timp ce navighează pe străzile aglomerate și are de-a face cu alți șoferi nebuni din apropiere, aici părintele nu conștientizează în mod fericit aceste preocupări și interacționează numai încântător cu prețiosul lor copil.

Părintele vorbește cu sistemul de conducere AI și îi spune AI să-i ducă la magazin alimentar. Într-un scenariu tipic, AI-ul ar răspunde printr-un enunț audio neutru pe care l-ați putea auzi în mod familiar prin Alexa sau Siri de astăzi. AI ar putea răspunde afirmând că magazinul alimentar este la 15 minute de mers cu mașina. În plus, AI-ul ar putea afirma că mașina cu conducere autonomă le va lăsa chiar în fața magazinului.

Aceasta ar putea fi singura activitate legată de voce a AI într-un astfel de scenariu. Poate că, odată ce mașina cu conducere autonomă se apropie de magazinul alimentar, AI ar putea spune ceva despre apropierea destinației. De asemenea, ar putea exista un memento vocal pentru a vă lua lucrurile cu dvs. când ieșiți din vehiculul autonom.

Am explicat că unele sisteme de conducere AI vor fi pisici vorbărete, așa cum ar fi. Vor fi programați să interacționeze mai fluent și continuu cu călăreții umani. Când intrați într-un vehicul de partajare care este condus de un om, uneori doriți ca șoferul să fie vorbăreț. Pe lângă salut, s-ar putea să doriți să vă spună despre condițiile meteo locale sau poate să vă sublinieze alte locuri de văzut în zona locală. Nu toată lumea își va dori pisica vorbăreț, astfel încât IA ar trebui concepută pentru a se angaja în dialoguri numai atunci când omul o cere, vezi acoperirea mea la linkul aici.

Acum că am toate stabilite, hai să schimbăm lucrurile într-un mod mic, dar semnificativ.

Prefaceți-vă că sistemul de conducere AI are o funcție de clonare a vocii bazată pe AI. Să presupunem, de asemenea, că părintele a însămânțat anterior clonarea vocii AI furnizând un fragment audio al bunicii copilului. Surpriză, crede părintele, voi pune sistemul de conducere AI să vorbească ca și cum ar fi bunica decedată a copilului.

În timpul călătoriei cu mașina către magazinul alimentar, sistemul de conducere AI interacționează cu părintele și copilul, folosind exclusiv vocea clonată a bunicii tot timpul.

Ce crezi despre asta?

Înfiorător sau memorabil cu drag?

Voi ridica lucrurile cu un pas. Pregateste-te. Pune-ți centura.

Unii cred că, pe măsură ce o fac eu, în cele din urmă le vom permite copiilor să circule singuri în mașini autonome bazate pe inteligență, vezi analiza mea la linkul aici.

În mașinile conduse de oameni de astăzi, un adult trebuie să fie întotdeauna prezent, deoarece legea cere ca la volan să fie un șofer adult. Pentru toate scopurile practice, nu puteți avea niciodată un copil într-o mașină în mișcare care se află în vehicul de unul singur (da, știu că acest lucru se întâmplă, cum ar fi un fiu proeminent în vârstă de 10 ani al unei vedete de cinema majore care a făcut backup recent. o mașină foarte scumpă într-o altă mașină foarte scumpă, dar oricum acestea sunt rarități).

Părinții din ziua de azi s-ar opune, probabil, cu înverșunare să le permită copiilor lor să circule într-o mașină care se conduce singur, care nu are un adult în vehiculul care servește ca supraveghetor sau care îi veghează asupra copiilor. Știu că pare aproape imposibil de imaginat, dar pariez că, odată ce mașinile cu conducere autonomă vor fi predominante, vom accepta inevitabil ideea ca copiii să rămână fără adulți în timp ce merg într-o mașină care se conduce singur.

Luați în considerare factorul de comoditate.

Ești la serviciu și șeful tău te urmărește pentru a îndeplini o sarcină. Trebuie să-ți ridici copilul de la școală și să-l duci la antrenament de baseball. Sunteți blocat între o stâncă și un loc greu pentru că vă liniștiți prea mult șeful sau nu vă duceți copilul la terenul de antrenament. Nimeni altcineva pe care îl cunoști nu este disponibil pentru a-ți oferi copilului tău un lift. În orice caz, cu siguranță nu doriți să utilizați un serviciu de partajare care are un șofer uman, deoarece, în mod natural, ați fi îngrijorat de ceea ce ar putea spune sau face acel adult străin în timp ce dă o plimbare copilului dumneavoastră.

Nicio problemă, fără griji, folosește doar o mașină autonomă bazată pe inteligență artificială. Îți direcționezi de la distanță mașina care se conduce singur să meargă să-ți ia copilul. Prin intermediul camerelor mașinii cu conducere autonomă, puteți vedea și urmări copilul cum urcă în vehiculul autonom. În plus, există camere orientate spre interior și vă puteți urmări copilul pe tot parcursul călătoriei. Acest lucru pare la fel de sigur, dacă nu mai sigur decât a cere unui șofer uman străin să ofere un lift pentru copilul dumneavoastră. Acestea fiind spuse, unii sunt pe bună dreptate îngrijorați că, în cazul în care actul de conducere merge prost, aveți un copil lăsat singuri și niciun adult imediat prezent pentru a ajuta sau îndruma copilul.

Lăsând deoparte numeroasele nemulțumiri, să presupunem că același părinte și același copil pe care i-am descris în scenariul anterior sunt de acord ca copilul să meargă la plimbare fără ca părintele să fie prezent. Acceptați doar că acesta este în cele din urmă un scenariu viabil.

Aici este lovitura finală.

De fiecare dată când copilul se deplasează cu mașina autonomă bazată pe inteligență artificială, este întâmpinat și interacționează cu inteligența artificială, deoarece utilizează clonarea vocii bazată pe inteligență artificială și reproduce vocea bunicii decedate a copilului.

Ce părere ai de merele alea?

Când părintele era și el prezent în mașina cu conducere autonomă, poate am putea scuza utilizarea vocii AI, deoarece părintele este acolo pentru a-l sfătui pe copil despre ce se întâmplă atunci când sunetul AI vorbește. Dar când părintele nu este prezent, acum presupunem că copilul este idilic de bine cu replicarea vocii bunicii.

Acesta este cu siguranță unul dintre acele momente de pauză pentru a vă gândi serios dacă acest lucru este bun sau rău pentru un copil.

Concluzie

Să facem un pic de experiment de gândire pentru a medita asupra acestor chestiuni importante.

Vă rog să veniți cu trei ferm pozitiv motive pentru a avea clonarea vocii bazată pe AI.

Voi aștepta până când vii cu ei.

Apoi, veniți cu trei solid negativ motive care subminează apariția clonării vocii bazate pe inteligență artificială.

Presupun că ai venit cu unele.

Îmi dau seama că, fără îndoială, puteți veni cu mult mai multe motive decât trei fiecare care fie favorizează, fie defavorizează această tehnologie. În opinia dvs., negativele depășesc cele pozitive? Există acei critici care susțin că ar trebui să punem chiboș pe astfel de eforturi.

Unii vor să încerce să blocheze firmele să folosească clonarea vocii bazată pe inteligență artificială, deși își dau seama că aceasta este una dintre acele dificultăți clasice de tip whack-a-mol. Orice firmă pe care o veți opri să-l mai utilizați, șansele sunt ca o altă firmă să înceapă să-l folosească. Înghețarea ceasului sau ascunderea acestui tip de IA va fi aproape imposibil de realizat.

Într-o remarcă finală pe această temă pentru moment, imaginați-vă ce s-ar putea întâmpla dacă într-o zi putem obține o inteligență artificială sensibilă. Nu spun că asta se va întâmpla. Putem specula oricum și să vedem unde ar putea duce asta.

În primul rând, luați în considerare un citat perspicace despre a vorbi și a avea o voce. Madeleine Albright a spus acest lucru: „Mi-a luat destul de mult timp să dezvolt o voce, iar acum că o am, nu voi tace.”

Dacă suntem capabili să producem IA sensibilă, sau cumva apare simțirea chiar dacă nu o aducem direct la iveală, ce voce ar trebui să aibă acea IA? Să presupunem că poate folosi clonarea vocii bazată pe inteligență artificială și, prin urmare, poate produce orice voce a oricărui om prin intermediul unui fragment mic de eșantionare audio care ar putea fi disponibil așa cum este rostit de acel om. O astfel de IA ar putea atunci să vorbească și să vă păcălească, făcându-vă să credeți că IA este aparent acea persoană.

Apoi, din nou, poate că AI va dori să aibă propria sa voce și să creeze intenționat o voce complet diferită de toate celelalte voci umane, dorind să fie specială în felul său fermecător.

Doamne, asta lasă pe cineva aproape fără cuvinte.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- destinat-utilizarii-in-sisteme-autonome-ai/