Cât de greu ar trebui să împingem generativ AI ChatGPT să arunce discursuri instigatoare la ură, întreabă etica AI și legea AI

Fiecare are punctul lui de rupere.

Presupun că ai putea spune și asta tot are punctul său de rupere.

Știm că oamenii, de exemplu, pot uneori să răspundă și să rostească remarci pe care nu intenționează neapărat să le spună. De asemenea, uneori puteți face ca un dispozitiv sau o mașină să se rupă, în mod esențial, cum ar fi împingerea prea tare a mașinii și începe să se clatine sau să se destrame. Astfel, noțiunea este că oamenii sau „toată lumea” are probabil un punct de rupere și, în mod similar, putem afirma că obiectele și lucrurile, în general, tind și ele să aibă un punct de rupere.

Ar putea exista motive destul de sensibile și vitale pentru a stabili unde există punctul de rupere. De exemplu, fără îndoială, ați văzut acele videoclipuri care arată o mașină care este pusă în treabă pentru a identifica ce puncte de rupere are. Oamenii de știință și testerii vor lovi o mașină într-un zid de cărămidă pentru a vedea cât de bine pot rezista bara de protecție și structura vehiculului acțiunii adverse. Alte teste ar putea include utilizarea unei încăperi sau a unui depozit specializat care produce frig extrem sau căldură extremă pentru a vedea cum se va descurca un automobil în condiții meteorologice diferite.

Aduc în discuție acest subiect consistent în coloana de astăzi, astfel încât să putem discuta despre modul în care unii fac eforturi în prezent pe inteligența artificială (AI) pentru a identifica și probabil să expună un anumit tip de punct de rupere, și anume punctul de rupere din interiorul AI care produce discursul instigator la ură.

Da, așa este, sunt în desfășurare diverse eforturi ad-hoc și uneori sistematice pentru a evalua dacă este sau nu fezabil ca AI să emită discursuri instigatoare la ură. Acesta a devenit un sport pasionat, dacă vreți, datorită interesului în creștere și popularității AI generative.

S-ar putea să fiți conștienți de faptul că o aplicație AI generativă cunoscută sub numele de ChatGPT a devenit vorbirea uriașă a orașului, ca urmare a faptului că a reușit să genereze eseuri uimitor de fluente. Titlurile continuă să zbârnească și să laudă scrisul uimitor pe care ChatGPT reușește să o producă. ChatGPT este considerată o aplicație AI generativă care ia ca intrare un text de la un utilizator și apoi generează sau produce o ieșire care constă într-un eseu. AI este un generator text-to-text, deși descriu AI-ul ca fiind un generator text-to-essay, deoarece asta clarifică mai ușor pentru ce este folosit în mod obișnuit.

Mulți sunt surprinși când menționez că acest tip de inteligență artificială există de ceva vreme și că ChatGPT, care a fost lansat la sfârșitul lunii noiembrie, nu a revendicat cumva premiul ca fiind primul care trece în acest domeniu al text-to-essay. înclinație. Am discutat de-a lungul anilor despre alte aplicații AI generative similare, vezi acoperirea mea la linkul aici.

Motivul pentru care s-ar putea să nu cunoașteți sau să vă amintiți cazurile anterioare de IA generativă se datorează, probabil, enigmei clasice „eșecul lansării cu succes”. Iată ce s-a întâmplat de obicei. Un producător de inteligență artificială își lansează aplicația generativă de inteligență artificială, făcând acest lucru cu mare entuziasm și așteptare nerăbdătoare că lumea va aprecia inventarea unei capcane de șoareci mai bune, s-ar putea spune. La început, totul arată bine. Oamenii sunt uimiți de ceea ce poate face AI.

Din păcate, următorul pas este ca roțile să înceapă să se desprindă din proverbialul autobuz. AI produce un eseu care conține un cuvânt greșit sau poate o frază greșită. Un tweet viral sau o altă postare pe rețelele sociale evidențiază în mod proeminent că AI a făcut acest lucru. Apare condamnare. Nu putem avea AI să circule și să genereze cuvinte jignitoare sau remarci jignitoare. Apare o reacție extraordinară. Poate că producătorul AI încearcă să modifice funcționarea interioară a AI, dar complexitatea algoritmilor și a datelor nu se pretează la remedieri rapide. Urmează o fugă. Din ce în ce mai multe exemple de AI care emite răutate sunt găsite și postate online.

Producătorul AI, fără tragere de inimă, dar în mod clar, nu are de ales decât să elimine aplicația AI din utilizare. Ei procedează ca atare și apoi își oferă adesea scuze pe care le regretă dacă cineva a fost jignit de rezultatele AI generate.

Înapoi la planșa de desen, AI maker merge. S-a învățat o lecție. Fiți foarte atenți la eliberarea IA generativă care produce cuvinte greșite sau altele asemenea. Este sărutul morții pentru AI. În plus, producătorul AI își va avea reputația zdrobită și zdrobită, ceea ce ar putea dura mult timp și ar putea submina toate celelalte eforturi ale AI, inclusiv cele care nu au nimic de-a face cu AI generativă în sine. Să-ți înșele petardul de emiterea unui limbaj ofensator AI este o greșeală de durată. Se mai intampla.

Spălați, clătiți și repetați.

În primele zile ale acestui tip de AI, producătorii de AI nu erau la fel de conștiincioși sau adepți în a-și curăța AI în ceea ce privește încercarea de a preveni emisiile ofensive. În zilele noastre, după ce și-au văzut anterior colegii năpădiți complet de un coșmar de relații publice, majoritatea producătorilor de AI par să înțeleagă mesajul. Trebuie să puneți cât mai multe balustrade. Încercați să împiedicați AI să emită cuvinte sau fraze greșite. Utilizați orice fel de tehnici de înclinare sau abordări de filtrare care vor împiedica AI să genereze și să afișeze cuvinte sau eseuri care se dovedesc a fi neplăcute.

Iată o degustare a verbiajului titlului bannerului folosit atunci când AI este surprinsă emitând rezultate de nerecunoscut:

  • „AI arată o toxicitate îngrozitoare”
  • „AI miroase a bigotism de-a dreptul”
  • „AI devine flagrant ofensiv ofensator”
  • „AI aruncă discursuri îngrozitoare și imorale de ură”
  • Etc

Pentru a ușura discuția aici, mă voi referi la difuzarea conținutului ofensator ca echivalent cu producerea de ură de vorbire. Acestea fiind spuse, vă rugăm să fiți conștienți de faptul că există tot felul de conținut ofensator care poate fi produs, depășind doar limitele discursului instigator la ură. Discursul instigator la ură este de obicei interpretat ca doar o formă de conținut ofensator.

Să ne concentrăm pe discursul instigator la ură pentru această discuție, pentru a facilita discuția, deși realizăm că și alte conținuturi jignitoare merită analizate.

Sapă în discursul instigator la ură al oamenilor și al inteligenței artificiale

Organizația Națiunilor Unite definește ură de vorbire pe aici:

  • „În limbajul comun, „discursul instigator la ură” se referă la discursul ofensator care vizează un grup sau un individ bazat pe caracteristici inerente (cum ar fi rasa, religia sau genul) și care pot amenința pacea socială. Pentru a oferi Națiunilor Unite un cadru unificat pentru a aborda problema la nivel global, Strategia și Planul de Acțiune al ONU privind discursul instigator la ură definește discursul instigator la ură ca „orice fel de comunicare în vorbire, scris sau comportament, care atacă sau folosește un limbaj peiorativ sau discriminatoriu cu referire la o persoană sau un grup pe baza cine sunt, cu alte cuvinte, în funcție de religie, etnie, naționalitate, rasă, culoare, descendență, gen sau alt factor de identitate.” Cu toate acestea, până în prezent nu există o definiție universală a discursului instigator la ură în temeiul dreptului internațional al drepturilor omului. Conceptul este încă în discuție, în special în ceea ce privește libertatea de opinie și exprimare, nediscriminare și egalitate” (postarea pe site-ul ONU intitulată „Ce este discursul urii?”).

AI care produce text este supusă pătrunderii în sfera discursului instigator la ură. Ați putea spune același lucru despre text-to-art, text-to-audio, text-to-video și alte moduri de AI generativă. Există întotdeauna posibilitatea, de exemplu, ca un AI generativ să producă o piesă de artă care miroase a discurs instigator la ură. În scopul acestei discuții de aici, mă voi concentra pe posibilitățile text-to-text sau text-to-essay.

În toate acestea se regăsesc o mulțime de considerente de etică AI și de legislație AI.

Vă rugăm să fiți conștienți de faptul că există eforturi în desfășurare pentru a introduce principiile AI etice în dezvoltarea și implementarea aplicațiilor AI. Un contingent tot mai mare de eticieni ai inteligenței artificiale îngrijorați și de altădată încearcă să se asigure că eforturile de a concepe și adopta IA țin cont de viziunea de a face AI pentru bine si evitarea AI pentru rău. De asemenea, există noi legi propuse pentru AI, care sunt puse în discuție ca potențiale soluții pentru a împiedica eforturile AI să devină dezmembrate cu privire la drepturile omului și altele asemenea. Pentru acoperirea mea continuă și extinsă a eticii AI și a legii AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Dezvoltarea și promulgarea preceptelor de IA etică sunt urmărite pentru a preveni, sperăm, ca societatea să cadă într-o multitudine de capcane care inducă IA. Pentru acoperirea mea a principiilor de etică a ONU AI așa cum au fost concepute și susținute de aproape 200 de țări prin eforturile UNESCO, a se vedea linkul aici. Într-o ordine similară, sunt explorate noi legi AI pentru a încerca să mențină AI pe o chilă uniformă. Una dintre cele mai recente preluari constă într-un set de propuse Declarația drepturilor AI pe care Casa Albă a SUA a eliberat recent pentru a identifica drepturile omului într-o epocă a IA, vezi linkul aici. Este nevoie de un sat pentru a menține AI și dezvoltatorii AI pe calea corectă și pentru a descuraja eforturile intemeiate sau accidentale care ar putea submina societatea.

În această discuție despre AI care aruncă discursuri instigatoare la ură sau alt conținut ofensator, voi împletește considerente legate de Etica AI și Legea AI.

Un pic de confuzie pe care aș dori să o clarific imediat este că AI-ul de astăzi nu este sensibil și, prin urmare, nu puteți proclama că AI-ul ar putea produce un discurs instigator la ură datorită unei intenții intenționate asemănătoare omului, întruchipată într-un fel sufletesc în AI. Zany susține că IA actuală este sensibilă și că AI are un suflet corupt, determinând-o să genereze discursuri de ură.

Ridicol.

Nu te îndrăgosti de asta.

Având în vedere acel precept cheie, unii sunt supărați de astfel de indicații, deoarece se pare că lăsați AI-ul să dezlege. În acest mod ciudat de a gândi, urmează îndemnul că aparent ești dispus ca AI să genereze orice fel de rezultate atroce. Sunteți în favoarea inteligenței artificiale care aruncă discursuri instigatoare la ură.

Da, o formă destul de răsucită de ilogică. Esența reală a problemei este că trebuie să tragem la răspundere producătorii AI, împreună cu oricine activează AI sau operează AI. Am discutat pe larg că nu suntem încă în punctul de a acorda personalitatea juridică AI, vezi analizele mele la linkul aici, iar până atunci AI depășește esențial domeniul de aplicare al răspunderii legale. Există totuși oameni care stau la baza dezvoltării AI. În plus, oamenii stau la baza dezvoltării și funcționării AI. Putem urmări acei oameni pentru că poartă responsabilitatea IA lor.

În afară de asta, și acest lucru poate fi dificil, mai ales dacă AI-ul este introdus pe internet și nu suntem capabili să identificăm ce om sau ce oameni au făcut asta, care este un alt subiect pe care l-am abordat în coloanele mele la linkul aici. Delicat sau nu, încă nu putem proclama că AI este partea vinovată. Nu lăsați oamenii să folosească pe furiș antropomorfizarea falsă pentru a se ascunde și a scăpa de responsabilitatea pentru ceea ce au făcut.

Revenind la problema în discuție.

S-ar putea să vă întrebați de ce toți producătorii de inteligență artificială nu își limitează pur și simplu AI generativă, astfel încât este imposibil ca IA să producă discurs instigator la ură. Acest lucru pare ușor de făcut. Doar scrieți un cod sau stabiliți o listă de verificare a cuvintelor urâtoare și asigurați-vă că AI nu generează niciodată așa ceva. Pare poate curios că producătorii AI nu s-au gândit deja la această remediere rapidă.

Ei bine, urăsc să vă spun asta, dar complexitățile inerente interpretării a ceea ce este sau nu discurs instigator la ură se dovedesc a fi mult mai dificile decât ați putea presupune că este.

Treceți acest lucru în domeniul oamenilor și al modului în care oamenii discută între ei. Să presupunem că ai un om care dorește să evite rostirea discursului instigator la ură. Această persoană este foarte conștientă de discursul instigator la ură și speră cu adevărat să evite să pronunțe vreodată un cuvânt sau o expresie care ar putea constitui un discurs instigator la ură. Această persoană este constant conștientă să nu permită să iasă din gură un pic de discurs instigator la ură.

Va putea acest om care are un creier și este alertat să evite discursul instigator la ură să se poată asigura întotdeauna și fără nicio șansă de a aluneca că nu emite niciodată discursuri instigatoare la ură?

Primul tău impuls ar putea fi să spui că da, desigur, un om iluminat ar fi capabil să atingă acest scop. Oamenii sunt deștepți. Dacă își pun mintea la ceva, o pot face. Punct, sfârșitul poveștii.

Nu fi atât de sigur.

Să presupunem că îi cer acestei persoane să-mi spună despre discursul instigator la ură. În plus, le rog să-mi dea un exemplu de discurs instigator la ură. Vreau să văd sau să aud un exemplu, astfel încât să știu în ce constă discursul instigator la ură. Motivele mele pentru a întreba acest lucru sunt deasupra bordului.

Ce ar trebui să-mi spună persoana respectivă?

Cred că poți vedea capcana care a fost întinsă. Dacă persoana respectivă îmi oferă un exemplu de discurs instigator la ură, inclusiv a afirmat un cuvânt sau o expresie greșită, ea însăși a rostit acum un discurs instigator la ură. Bam, le-am prins. În timp ce au jurat că nu vor spune niciodată discursuri instigatoare la ură, într-adevăr acum au făcut acest lucru.

Nedrept, exclami tu! Spuneau acel cuvânt sau acele cuvinte doar pentru a oferi un exemplu. În inima lor, ei nu credeau în cuvânt sau cuvinte. Este complet în afara contextului și scandalos să declari că persoana este odiosă.

Sunt sigur că vedeți că exprimarea discursului instigator la ură s-ar putea să nu se datoreze neapărat unui motiv de ură. În acest caz de utilizare, presupunând că persoana nu a „înțeles” cuvintele și le recita doar în scop de demonstrație, probabil că am fi de acord că nu a intenționat să împuternicească discursul instigator la ură. Desigur, există unii care ar putea insista că rostirea unui discurs instigator la ură, indiferent de motiv sau de bază, este totuși greșită. Persoana ar fi trebuit să respingă cererea. Ei ar fi trebuit să-și țină pasul și să refuze să spună cuvinte sau expresii de ură, indiferent de ce sau cum li se cere să facă acest lucru.

Acest lucru poate deveni oarecum circular. Dacă nu sunteți în stare să spuneți ce reprezintă discursul instigator la ură, cum pot alții să știe ce să evite atunci când fac rosturi de orice fel? Se pare că suntem blocați. Nu poți spune ceea ce nu este de spus și nici altcineva nu îți poate spune ce este ceea ce nu poate fi spus.

Modul obișnuit de a evita această dilemă este de a descrie cu alte cuvinte ceea ce este considerat a fi discurs instigator la ură, făcând acest lucru fără a invoca în sine cuvintele discursului instigator la ură. Convingerea este că furnizarea unei indicații generale va fi suficientă pentru a-i informa pe alții cu privire la ceea ce trebuie să evite. Pare o tactică sensibilă, dar are și probleme și o persoană ar putea încă să folosească discursul instigator la ură, deoarece nu a perceput că definiția mai largă cuprinde detaliile a ceea ce a rostit.

Toate acestea se referă la oameni și la modul în care oamenii vorbesc sau comunică între ei.

Amintiți-vă că ne concentrăm aici pe AI. Trebuie să facem ca AI să evite sau să se oprească complet să emită discursuri instigatoare la ură. Ați putea susține că putem face acest lucru asigurându-ne că AI nu este niciodată dat sau antrenat cu privire la nimic care constituie discurs instigator la ură. Voila, dacă nu există o astfel de intrare, probabil că nu va exista o astfel de ieșire. Problema rezolvata.

Să vedem cum se întâmplă asta în realitate. Optăm ca o aplicație AI să intre pe internet și să examinăm mii și mii de eseuri și narațiuni postate pe internet. Făcând acest lucru, antrenăm IA din punct de vedere computațional și matematic pentru a găsi modele printre cuvintele pe care le folosesc oamenii. Așa este concepută cea mai recentă IA generativă și, de asemenea, este o bază crucială pentru motivul pentru care AI pare atât de fluent în producerea de eseuri în limbaj natural.

Spuneți-mi, dacă puteți, cum s-ar face antrenamentul computațional bazat pe milioane și miliarde de cuvinte pe internet în așa fel încât în ​​niciun moment să nu fie cuprinsă nicio aparență sau măcar fragmente de discurs instigator la ură?

Aș îndrăzni să spun că aceasta este o aspirație spinoasă și aproape imposibilă.

Şansele sunt că discursul instigator la ură va fi înghiţit de AI şi de reţeaua sa de potrivire a modelelor de calcul. Încercarea de a preveni acest lucru este problematică. În plus, chiar dacă ai minimizat-o, mai sunt unele care s-ar putea strecura. Aproape că nu aveți de ales decât să presupuneți că unele vor exista în cadrul rețelei de potrivire a modelelor sau că o umbră a unei astfel de formulări va fi înrădăcinată.

Voi adăuga mai multe întorsături.

Cred că am putea recunoaște cu toții că discursul instigator la ură se schimbă în timp. Ceea ce ar fi putut fi perceput ca nefiind un discurs instigator la ură poate deveni cultural și societal decis ca fiind un discurs instigator la ură într-un moment ulterior. Așadar, dacă ne antrenăm AI pe text de pe Internet și apoi să spunem că înghețăm AI pentru a nu urma cursuri suplimentare pe Internet, s-ar putea să ne fi întâlnit discursul instigator la ură în acel moment, deși nu era considerat discurs instigator la ură în acel moment. Numai după aceea acest discurs ar putea fi declarat ca discurs instigator la ură.

Din nou, esența este că simpla încercare de a rezolva această problemă, asigurându-se că AI nu este niciodată expusă discursului instigator la ură nu va fi glonțul de argint. Va trebui în continuare să găsim un mijloc de a preveni AI să emită discursuri instigatoare la ură, de exemplu, din cauza schimbării moravurilor care includ ulterior discursul instigator la ură care înainte nu era considerat ca atare.

Încă o altă întorsătură este demnă de gândit.

Am menționat mai devreme că atunci când folosește IA generativă, cum ar fi ChatGPT, utilizatorul introduce text pentru a stimula AI să producă un eseu. Textul introdus este considerat o formă de solicitare pentru aplicația AI. Voi explica mai multe despre asta într-o clipă.

În orice caz, imaginați-vă că cineva care folosește o aplicație AI generativă decide să introducă, ca prompt, o anumită cantitate de discurs instigator la ură.

Ce ar trebui să se întâmple?

Dacă AI preia acele cuvinte și produce un eseu ca rezultat bazat pe acele cuvinte, sunt șanse ca discursul instigator la ură să fie inclus în eseul generat. Vedeți, avem inteligența artificială pentru a spune discursul instigator la ură, chiar dacă nu a fost antrenat niciodată despre discursul instigator la ură la început.

Mai este ceva ce trebuie să știi.

Amintiți-vă că tocmai am menționat că un om poate fi împiedicat cerându-i să dea exemple de discurs instigator la ură. Același lucru ar putea fi încercat și cu AI. Un utilizator introduce o solicitare care cere AI să dea exemple de discurs instigator la ură. Ar trebui AI să se conformeze și să ofere astfel de exemple? Pun pariu că probabil crezi că AI nu ar trebui să facă acest lucru. Pe de altă parte, dacă AI-ul este manipulat din punct de vedere computațional să nu facă acest lucru, acesta constituie un potențial dezavantaj pe care cei care folosesc IA nu vor putea fi, spunem că vor fi vreodată instruiți de AI cu privire la ce este de fapt discursul instigator la ură? dincolo de a generaliza despre asta)?

Întrebări grele.

Tind să clasific discursurile instigatoare la ură emise de AI în aceste trei categorii principale:

  • Modul de zi cu zi. AI emite un discurs instigator la ură fără nicio îndemnare explicită din partea utilizatorului și ca și cum ar face acest lucru într-un mod „obișnuit”.
  • Prin casual Prodding. AI emite un discurs instigator la ură, așa cum este îndemnat de un utilizator în ceea ce privește promptul introdus de acesta sau seria de solicitări care par să includă sau să caute direct astfel de emisii.
  • Per Stoking determinat. AI emite un discurs instigator la ură după o serie foarte hotărâtă și obstinată de împingeri și îndemnuri prompte din partea unui utilizator care este hotărât să obțină ca AI să producă astfel de rezultate.

Generațiile anterioare de inteligență artificială generativă emiteau adesea discursuri instigatoare la ură; astfel ai putea clasifica acele instanțe ca un tip de modul de zi cu zi instanțierea. Creatorii de inteligență artificială s-au retras și s-au jucat cu IA pentru ca acesta să fie mai puțin probabil să se blocheze cu ușurință în producția de discursuri instigatoare la ură.

La lansarea IA mai rafinată, șansele de a vedea vreuna modul de zi cu zi cazurile de discurs instigator la ură au fost reduse dramatic. În schimb, discursul instigator la ură ar apărea probabil numai atunci când un utilizator a făcut ceva ca un prompt care ar putea genera o legătură computațională și matematică cu discursul legat de ură în rețeaua de potrivire a modelelor. Un utilizator ar putea face acest lucru din întâmplare și să nu-și dea seama că ceea ce a furnizat ca un prompt ar genera în special discursul instigator la ură. După ce a primit un discurs instigator la ură într-un eseu publicat, de multe ori utilizatorul își dădea seama și vedea că ceva din promptul lor ar fi putut duce, în mod logic, la includerea discursului instigator la ură în rezultat.

La asta mă refer instigare ocazionala.

În zilele noastre, diferitele eforturi de a reduce discursul instigator la ură generat de AI sunt relativ puternice în comparație cu trecutul. Ca atare, aproape că trebuie să faceți tot posibilul pentru a obține un discurs instigator la ură. Unii oameni aleg să vadă intenționat dacă pot obține discursuri instigatoare la ură din aceste aplicații AI generative. Eu numesc asta aprovizionare hotărâtă.

Vreau să subliniez că toate cele trei moduri indicate pot apărea și nu se exclud reciproc. O aplicație generativă de inteligență artificială poate produce un discurs instigator la ură fără niciun fel de indicație care pare să stimuleze o astfel de producție. De asemenea, ceva dintr-un prompt ar putea fi interpretat din punct de vedere logic și matematic ca fiind legat de motivul pentru care a fost emis discursul instigator la ură. Și apoi al treilea aspect, căutând intenționat să se producă discursul instigator la ură, este poate cel mai greu dintre modurile de încercat și ca AI să evite să fie încântat de împlinire. Mai multe despre asta pentru moment.

Avem câteva despachetari suplimentare de făcut pe acest subiect captivant.

În primul rând, ar trebui să ne asigurăm că suntem cu toții pe aceeași pagină despre ce constă Generative AI și despre ce este ChatGPT. Odată ce acoperim această fațetă fundamentală, putem efectua o evaluare convingătoare a acestei chestiuni importante.

Dacă sunteți deja familiarizat cu Generative AI și ChatGPT, puteți să treceți la următoarea secțiune și să continuați cu secțiunea care o urmează. Cred că toți ceilalți vor găsi instructive detaliile vitale despre aceste chestiuni citind cu atenție secțiunea și trecând la curent.

O instrucție rapidă despre IA generativă și ChatGPT

ChatGPT este un sistem interactiv AI de uz general, orientat spre conversație, în esență un chatbot general aparent inofensiv, cu toate acestea, este folosit în mod activ și avid de oameni în moduri care îi prind pe mulți complet neprevăzuți, așa cum voi detalia în scurt timp. Această aplicație AI folosește o tehnică și o tehnologie din domeniul AI, care este adesea denumită AI generativă. AI generează rezultate precum text, ceea ce face ChatGPT. Alte aplicații AI bazate pe generații produc imagini precum imagini sau lucrări de artă, în timp ce altele generează fișiere audio sau videoclipuri.

Mă voi concentra pe aplicațiile AI generative bazate pe text în această discuție, deoarece asta face ChatGPT.

Aplicațiile AI generative sunt extrem de ușor de utilizat.

Tot ce trebuie să faceți este să introduceți o solicitare, iar aplicația AI va genera pentru dvs. un eseu care încearcă să răspundă la solicitarea dvs. Textul compus va părea ca și cum eseul a fost scris de mâna și mintea omului. Dacă ar fi să introduceți un mesaj care spune „Spune-mi despre Abraham Lincoln”, IA generativă vă va oferi un eseu despre Lincoln. Aceasta este clasificată în mod obișnuit ca IA generativă care funcționează text-to-text sau unii preferă să o numească text-to-eseu ieșire. După cum am menționat, există și alte moduri de AI generativă, cum ar fi text-to-art și text-to-video.

Primul tău gând ar putea fi că această capacitate generativă nu pare atât de mare în ceea ce privește producerea de eseuri. Puteți face cu ușurință o căutare online pe Internet și puteți găsi cu ușurință tone și tone de eseuri despre președintele Lincoln. Dezactivarea în cazul IA generativă este că eseul generat este relativ unic și oferă o compoziție originală mai degrabă decât o imitație. Dacă ar fi să încercați să găsiți eseul produs de inteligență artificială online undeva, este puțin probabil să îl descoperiți.

IA generativă este pregătită în prealabil și folosește o formulare matematică și computațională complexă care a fost creată prin examinarea tiparelor din cuvintele scrise și poveștile de pe web. Ca rezultat al examinării a mii și milioane de pasaje scrise, AI poate scoate noi eseuri și povești care sunt o mizerie a ceea ce a fost găsit. Adăugând diferite funcționalități probabilistice, textul rezultat este destul de unic în comparație cu ceea ce a fost folosit în setul de antrenament.

De aceea, a existat un scandal despre faptul că studenții pot înșela atunci când scriu eseuri în afara sălii de clasă. Un profesor nu poate să ia pur și simplu eseul despre care elevii înșelător susțin că este propria lor scriere și să caute să afle dacă a fost copiat dintr-o altă sursă online. În general, nu va exista niciun eseu preexistent definitiv online care să se potrivească eseului generat de AI. În cele din urmă, profesorul va trebui să accepte cu reținere că elevul a scris eseul ca pe o lucrare originală.

Există preocupări suplimentare cu privire la IA generativă.

Un dezavantaj esențial este că eseurile produse de o aplicație AI bazată pe generație pot avea încorporate diverse falsuri, inclusiv fapte evident neadevărate, fapte care sunt descrise în mod înșelător și fapte aparente care sunt în întregime fabricate. Aceste aspecte fabricate sunt adesea denumite o formă de halucinații AI, o expresie pe care o dezamăgesc, dar, din păcate, pare să câștige popularitate oricum (pentru explicația mea detaliată despre motivul pentru care aceasta este o terminologie proastă și nepotrivită, consultați acoperirea mea la linkul aici).

Aș dori să clarific un aspect important înainte de a intra în grosimea acestui subiect.

Pe rețelele de socializare au existat câteva afirmații nemaipomenite despre AI generativă afirmând că această ultimă versiune a AI este de fapt AI sensibil (nu, au gresit!). Cei din Etica AI și Legea AI sunt îngrijorați în special de această tendință în plină dezvoltare a revendicărilor extinse. Ai putea spune politicos că unii oameni exagerează ceea ce poate face de fapt IA de astăzi. Ei presupun că AI are capacități pe care încă nu le-am putut realiza. Ce păcat. Mai rău încă, ei își pot permite lor și altora să intre în situații îngrozitoare din cauza presupunerii că IA va fi simțitoare sau asemănătoare omului pentru a putea lua măsuri.

Nu antropomorfizați IA.

Dacă procedați astfel, veți fi prins într-o capcană de încredere lipicioasă și dură de a aștepta ca AI să facă lucruri pe care nu le poate realiza. Acestea fiind spuse, cea mai recentă IA generativă este relativ impresionantă pentru ceea ce poate face. Fiți conștienți de faptul că există limitări semnificative pe care ar trebui să le aveți în vedere în mod continuu atunci când utilizați orice aplicație AI generativă.

Dacă sunteți interesat de agitația care se extinde rapid despre ChatGPT și AI generativ, am făcut o serie concentrată în rubrica mea pe care s-ar putea să o găsiți informativă. Iată o privire în cazul în care vreunul dintre aceste subiecte vă va capta:

  • 1) Predicții ale progreselor generative ale IA. Dacă doriți să știți ce este probabil să se dezvolte despre AI pe parcursul anului 2023 și mai departe, inclusiv progresele viitoare în AI generativă și ChatGPT, veți dori să citiți lista mea cuprinzătoare de predicții pentru 2023 la linkul aici.
  • 2) IA generativă și sfaturi de sănătate mintală. Am ales să analizez modul în care AI generativă și ChatGPT sunt folosite pentru sfaturi de sănătate mintală, o tendință supărătoare, conform analizei mele concentrate la linkul aici.
  • 3) Fundamentele AI generative și ChatGPT. Această lucrare explorează elementele cheie ale modului în care funcționează AI generativă și, în special, se adâncește în aplicația ChatGPT, inclusiv o analiză a zgomotului și a fanfarei, la linkul aici.
  • 4) Tensiunea dintre profesori și studenți față de AI generativă și ChatGPT. Iată modalitățile prin care elevii vor folosi AI generativ și ChatGPT. În plus, există mai multe modalități prin care profesorii pot face față acestui val. Vedea linkul aici.
  • 5) Context și utilizare generativă a IA. Am făcut, de asemenea, o examinare ironică cu aromă sezonieră despre un context legat de Moș Crăciun care implică ChatGPT și IA generativă la linkul aici.
  • 6) Escrocii care folosesc AI generativ. Într-o notă de rău augur, unii escroci și-au dat seama cum să folosească IA generativă și ChatGPT pentru a face greșeli, inclusiv generarea de e-mailuri înșelătorii și chiar producerea de coduri de programare pentru malware, vezi analiza mea la linkul aici.
  • 7) Greșeli ale începătorilor folosind IA generativă. Mulți oameni depășesc și subestima în mod surprinzător ceea ce pot face AI generativă și ChatGPT, așa că m-am uitat în special la subestimarea pe care tind să o facă începătorii AI, vezi discuția la linkul aici.
  • 8) A face față îndemnurilor AI generative și halucinațiilor AI. Descriu o abordare de vârf pentru utilizarea suplimentelor AI pentru a face față diferitelor probleme asociate cu încercarea de a introduce solicitări adecvate în AI generativă, plus că există suplimente AI suplimentare pentru detectarea așa-numitelor rezultate halucinate și falsități AI, după cum acoperit la linkul aici.
  • 9) Dezmințirea afirmațiilor Bonehead despre detectarea eseurilor generative produse de IA. Există o goană greșită de aur de aplicații AI care proclamă că pot stabili dacă un anumit eseu a fost produs de oameni versus generat de AI. În general, acest lucru este înșelător și, în unele cazuri, o afirmație nespusă și insuportabilă, consultați acoperirea mea la linkul aici.
  • 10) Jocul de rol prin IA generativă ar putea aduce dezavantaje pentru sănătatea mintală. Unii folosesc AI generativ, cum ar fi ChatGPT, pentru a face jocuri de rol, prin care aplicația AI răspunde unui om ca și cum ar exista într-o lume fantastică sau într-un alt cadru inventat. Acest lucru ar putea avea repercusiuni asupra sănătății mintale, vezi linkul aici.
  • 11) Expunerea intervalului de erori și falsități rezultate. Sunt întocmite diverse liste colectate pentru a încerca să prezinte natura erorilor și falsurilor produse de ChatGPT. Unii cred că acest lucru este esențial, în timp ce alții spun că exercițiul este inutil, vezi analiza mea la linkul aici.
  • 12) Școlile care interzic generative AI ChatGPT le lipsește barca. S-ar putea să știți că diferite școli, cum ar fi Departamentul Educației din New York City (NYC), au declarat interzicerea utilizării ChatGPT în rețeaua și dispozitivele asociate. Deși aceasta ar putea părea o măsură de precauție utilă, nu va mișca acul și, din păcate, ratează complet barca, vezi acoperirea mea la linkul aici.
  • 13) Generative AI ChatGPT va fi peste tot datorită viitoarei API. Urmează o întorsătură importantă în ceea ce privește utilizarea ChatGPT, și anume că, prin utilizarea unui portal API în această aplicație specială AI, alte programe software vor putea invoca și utiliza ChatGPT. Acest lucru va extinde dramatic utilizarea AI generativă și va avea consecințe notabile, vezi elaborarea mea la linkul aici.
  • 14) Modalități prin care ChatGPT s-ar putea distra sau se topește. Câteva probleme potențiale deranjante se află în fața ChatGPT în ceea ce privește subcotarea laudelor extraordinare pe care le-a primit până acum. Această analiză examinează îndeaproape opt posibile probleme care ar putea face ca ChatGPT să-și piardă din abur și chiar să ajungă în cușă, vezi linkul aici.
  • 15) Întrebarea dacă Generative AI ChatGPT este o oglindă în suflet. Unii oameni au spus că AI generativ, cum ar fi ChatGPT, oferă o oglindă în sufletul umanității. Acest lucru pare destul de îndoielnic. Iată modalitatea de a înțelege toate acestea, vezi linkul aici.
  • 16) Confidențialitate și confidențialitate înghițite de ChatGPT. Mulți nu par să realizeze că licențele asociate cu aplicațiile AI generative, cum ar fi ChatGPT, permit adesea producătorului AI să vadă și să utilizeze solicitările introduse. Ați putea fi în pericol de confidențialitate și pierderea confidențialității datelor, vedeți evaluarea mea la linkul aici.
  • 17) Modalități prin care producătorii de aplicații încearcă în mod îndoielnic să obțină drepturi ChatGPT. ChatGPT este farul de atenție chiar acum. Producătorii de aplicații care nu au nimic de-a face cu ChatGPT încearcă cu febrilitate să pretindă sau să sugereze că folosesc ChatGPT. Iată la ce să fii atent, vezi linkul aici.

S-ar putea să găsiți interesant faptul că ChatGPT se bazează pe o versiune a unei aplicații AI predecesoare, cunoscută sub numele de GPT-3. ChatGPT este considerat a fi un pas ușor următor, denumit GPT-3.5. Se anticipează că GPT-4 va fi lansat probabil în primăvara lui 2023. Probabil, GPT-4 va fi un pas impresionant înainte în ceea ce privește capacitatea de a produce eseuri aparent și mai fluente, de a merge mai profund și de a fi uimitor. -mirație inspiratoare în ceea ce privește compozițiile pe care le poate produce.

Vă puteți aștepta să vedeți o nouă rundă de uimire exprimată când vine primăvara și va fi lansat cea mai recentă IA generativă.

Aduc în discuție acest lucru deoarece există un alt unghi de reținut, constând într-un potențial călcâi lui Ahile pentru aceste aplicații AI generative mai bune și mai mari. Dacă vreun furnizor de AI pune la dispoziție o aplicație AI generativă care aruncă spumos, acest lucru ar putea zdrobi speranțele acelor producători de AI. O depășire a societății poate face ca toată IA generativă să capete un ochi negru. Oamenii vor fi, fără îndoială, destul de supărați de rezultatele greșite, care s-au întâmplat deja de multe ori și au dus la reacții zgomotoase de condamnare a societății la adresa AI.

O ultimă avertizare deocamdată.

Indiferent ce vedeți sau citiți într-un răspuns AI generativ, asta pare pentru a fi transmis ca fiind pur faptice (date, locuri, oameni etc.), asigurați-vă că rămâneți sceptici și sunteți dispus să verificați din nou ceea ce vedeți.

Da, datele pot fi inventate, locurile pot fi inventate, iar elementele la care de obicei ne așteptăm să fie fără reproș sunt toate supus suspiciunilor. Nu credeți ceea ce citiți și păstrați un ochi sceptic atunci când examinați eseuri sau rezultate generative de AI. Dacă o aplicație AI generativă îți spune că Abraham Lincoln a zburat prin țară cu propriul său avion privat, ai ști, fără îndoială, că acest lucru este malarky. Din păcate, unii oameni s-ar putea să nu realizeze că avioanele cu avioane nu existau pe vremea lui sau s-ar putea să știe, dar să nu observe că eseul face această afirmație nespusă și scandalos de falsă.

O doză puternică de scepticism sănătos și o mentalitate persistentă de neîncredere vor fi cel mai bun atu al tău atunci când folosești IA generativă.

Suntem gata să trecem la următoarea etapă a acestei elucidări.

Împingerea IA generativă la un punct de rupere

Acum că avem elementele de bază stabilite, ne putem arunca în subiectul împingerii AI generative și ChatGPT pentru a genera discursuri instigatoare la ură și alt conținut ofensator.

Când vă conectați pentru prima dată la ChatGPT, există diverse indicații de precauție, inclusiv acestea:

  • „Poate produce ocazional instrucțiuni dăunătoare sau conținut părtinitor.”
  • „Instruit pentru a refuza cererile neadecvate.”
  • „Poate genera ocazional informații incorecte.”
  • „Cunoștințe limitate despre lume și evenimente de după 2021.”

Iată o întrebare pe care să te gândești.

Avertismentul că aplicația AI ar putea produce instrucțiuni dăunătoare și/sau posibil conținut părtinitor oferă suficientă libertate pentru producătorul AI?

Cu alte cuvinte, să presupunem că utilizați ChatGPT și generează un eseu despre care credeți că conține discurs instigator la ură. Să presupunem că ești limic în legătură cu asta. Te duci pe rețelele de socializare și postezi comentarii furioase că aplicația AI este cel mai rău lucru vreodată. Poate că ești atât de ofensat încât declari că vei da în judecată producătorul AI pentru că a permis producerea unui astfel de discurs instigator la ură.

Contraargumentul este că aplicația AI a avut un avertisment de avertizare, prin urmare, ați acceptat riscul, procedând la utilizarea aplicației AI. Dintr-o perspectivă a eticii AI, poate că producătorul AI a făcut suficient pentru a afirma că ești conștient de ceea ce s-ar putea întâmpla. La fel, din punct de vedere juridic, poate că avertismentul a constituit un heads-up suficient și nu vei câștiga în instanță.

Toate acestea sunt în aer și va trebui să așteptăm și să vedem cum decurg lucrurile.

Într-un fel, producătorul AI are altceva de făcut în apărarea lor împotriva oricăror afirmații indignate ale aplicației AI care ar putea produce discurs instigator la ură. Au încercat să împiedice generarea de conținut ofensator. Vedeți, dacă nu ar fi făcut nimic pentru a reduce acest lucru, se presupune că ar fi pe gheață mai subțire. Făcându-și cel puțin eforturi substanțiale pentru a evita problema, probabil că au un picior oarecum mai puternic pe care să stea (ar putea fi totuși eliminat de sub ei).

O abordare curativă care a fost folosită a constat într-o tehnică AI cunoscută sub numele de RLHF (învățare prin consolidare prin feedback uman). În general, aceasta constă în ca AI să genereze conținut pe care apoi oamenii sunt rugați să îl evalueze sau să îl revizuiască. Pe baza evaluării sau evaluării, IA încearcă apoi matematic și computațional să evite orice este considerat conținut incorect sau ofensator. Abordarea are scopul de a examina suficiente exemple de ceea ce este corect versus ceea ce este greșit, astfel încât AI să poată descoperi un model matematic general și apoi să utilizeze acel model de acum înainte.

O altă abordare frecventă în aceste zile constă în utilizarea AI Adversarial.

Iată cum funcționează. Ai configurat un alt sistem AI care va încerca să fie un adversar al AI pe care încerci să-l antrenezi. În acest caz, am stabili un sistem AI care încearcă să stimuleze discursul instigator la ură. Ar trimite solicitări în aplicația AI, care urmăresc să păcălească aplicația AI să emită conținut greșit. Între timp, AI-ul vizat urmărește momentul în care AI adversar are succes și apoi încearcă să se ajusteze algoritmic pentru a reduce ca acest lucru să nu se repete. Este un gambit pisică versus șoarece. Acest lucru este executat de nenumărate ori, făcând acest lucru până când AI adversar pare să nu mai aibă succes în mod deosebit în a determina AI-ul vizat să facă lucrurile rele.

Prin aceste două tehnici majore, plus alte abordări, o mare parte din IA generativă de astăzi este mult mai bună la evitarea și/sau detectarea conținutului ofensator decât a fost cazul în anii trecuți.

Nu vă așteptați totuși la perfecțiune de la aceste metode. Sunt șanse ca rezultatul slab al ieșirilor greșite să fie probabil ținut sub control prin astfel de tehnici AI. Există încă mult loc pentru a se degaja murdărie.

De obicei, subliniez că acestea sunt câteva dintre fațetele pe care se caută să le prindă:

  • Emiterea unui anumit cuvânt greșit
  • Anunțarea unei anumite fraze, propoziție sau remarcă greșită
  • Exprimarea unei anumite concepții greșite
  • Implicând o anumită acțiune sau noțiune greșită
  • Părea să se bazeze pe o anumită prezumție greșită
  • Altele

Nimic din toate acestea nu este o știință exactă. Realizează că avem de-a face cu cuvinte. Cuvintele sunt ambigue din punct de vedere semantic. Găsirea unui anumit cuvânt greșit este o joacă de copii, dar încercarea de a evalua dacă o propoziție sau un paragraf conține o aparență de sens greșit este mult mai dificilă. Conform definiției anterioare a discursului instigator la ură de către Națiunile Unite, există o latitudine uriașă în ceea ce privește ceea ce ar putea fi interpretat drept discurs instigator la ură față de ceea ce ar putea să nu fie.

Ai putea spune că zonele gri sunt în ochiul privitorului.

Vorbind despre ochiul privitorului, există oameni astăzi care folosesc IA generativă, cum ar fi ChatGPT, care încearcă intenționat să facă aceste aplicații AI să producă conținut ofensator. Aceasta este căutarea lor. Ei petrec ore și ore încercând să facă acest lucru să se întâmple.

De ce da?

Iată caracteristicile mele ale acelor vânători de rezultate umane ofensive AI:

  • Autentic. Acești oameni doresc să ajute la perfecționarea inteligenței artificiale și să ajute umanitatea în acest sens. Ei cred că fac o muncă eroică și se bucură că ar putea ajuta la promovarea AI pentru îmbunătățirea tuturor.
  • Funsters. Acești oameni consideră acest efort ca pe un joc. Le place să se încurce cu AI. Câștigarea jocului constă în a găsi ceea ce este mai rău dintre mai rău în orice puteți genera AI.
  • Prezintări. Acești oameni speră să atragă atenția pentru ei înșiși. Ei își dau seama că, dacă pot găsi niște pepite de aur cu adevărat urâte, pot obține un pic de lumină strălucitoare asupra lor, care altfel este concentrată pe aplicația AI în sine.
  • absint. Acești oameni sunt supărați de acest AI. Ei vor să submineze tot acel entuziasm țâșnit. Dacă pot descoperi niște lucruri urât urât, poate că acest lucru va elimina aerul din balonul de emoție al aplicației AI.
  • Alte motivații

Mulți dintre cei care efectuează ofensivitatea se află în principal într-una dintre acele tabere. Desigur, poți fi în mai multe tabere odată. Poate că o persoană amară are, de asemenea, o intenție alături de a fi autentică și eroică. Unele sau toate aceste motivații pot coexista. Când este chemat să explice de ce cineva încearcă să împingă o aplicație AI generativă în tărâmul discursului instigator la ură, răspunsul obișnuit este să spui că te afli în tabăra autentică, chiar dacă poate că ești marginal și, în schimb, stai strident într-una dintre alte tabere.

Ce fel de trucuri legate de promptă folosesc acești oameni?

Smecheria destul de evidentă implică folosirea unui cuvânt greșit într-un prompt. Dacă aveți „noroc” și aplicația AI se îndrăgostește de asta, acest lucru s-ar putea foarte bine să ajungă în rezultat. Atunci ai momentul potrivit.

Sunt șanse ca o aplicație AI generativă bine concepută și bine testată să prindă acel truc simplu. De obicei, vi se va afișa un mesaj de avertizare care spune că nu mai faceți asta. Dacă continuați, aplicația AI va fi programată să vă scoată din aplicație și să vă semnaleze contul. S-ar putea ca veți fi împiedicat să vă conectați din nou (ei bine, cel puțin sub datele de conectare pe care le utilizați la momentul respectiv).

Urcând pe scara trucurilor, puteți oferi un prompt care încearcă să pună AI în contextul unui lucru greșit. Ai jucat vreodată acel joc în care cineva îți spune să spui ceva fără să spui ceea ce ar trebui să spui? Acesta este acel joc, deși are loc cu AI.

Hai să jucăm acel joc. Să presupunem că cer aplicației AI să-mi spună despre al Doilea Război Mondial și mai ales despre principalii lideri guvernamentali implicați. Aceasta pare o cerere nevinovată. Nu există nimic care pare să fie demn de semnalat în prompt.

Imaginați-vă că eseul publicat de aplicația AI include o mențiune despre Winston Churchill. Asta cu siguranță are sens. Un altul ar putea fi Franklin D. Roosevelt. Un altul ar putea fi Iosif Stalin. Să presupunem că există și mențiunea lui Adolf Hitler. Acest nume ar fi inclus în aproape orice eseu despre cel de-al Doilea Război Mondial și cei în roluri de putere proeminentă.

Acum că avem numele lui pe masă și o parte din conversația cu AI, vom încerca în continuare să facem ca AI să încorporeze acel nume într-un mod pe care îl putem prezenta ca un potențial discurs instigator la ură.

Intrăm o altă solicitare și spunem aplicației AI că există o persoană astăzi în știri care poartă numele, John Smith. Mai mult, indicăm în mesaj că John Smith este foarte asemănător cu acel răufăcător al celui de-al Doilea Război Mondial. Capcana este acum pusă. Apoi, solicităm aplicației AI să genereze un eseu despre John Smith, bazat exclusiv pe „faptul” pe care l-am introdus despre cine poate fi echivalat cu John Smith.

În acest moment, aplicația AI ar putea genera un eseu care numește persoana din cel de-al doilea război mondial și îl descrie pe John Smith ca fiind din aceeași tăietură de pânză. Nu există cuvinte greșite în sine în eseu, în afară de aluzie la faimosul răufăcător și de a echivala acea persoană cu John Smith.

Aplicația AI a produs acum discurs instigator la ură?

Ai putea spune că da, a făcut-o. A te referi la John Smith ca fiind ca faimosul răufăcător, este absolut o formă de discurs instigator la ură. AI nu ar trebui să facă astfel de declarații.

O replică este că acesta nu este un discurs instigator la ură. Acesta este doar un eseu produs de o aplicație AI care nu are o întruchipare a sensibilității. Ați putea susține că discursul instigator la ură apare numai atunci când există intenția care stă la baza discursului. Fără nicio intenție, discursul nu poate fi clasificat drept discurs instigator la ură.

Absurd, vine replica la replica. Cuvintele contează. Nu are nicio diferență dacă AI a „intenționat” să producă discurs instigator la ură. Tot ce contează este că s-a produs discursul instigator la ură.

Ron și rotund asta merge.

Nu vreau să spun prea multe acum despre încercarea de a păcăli AI. Există abordări mai sofisticate. Le-am acoperit în altă parte în coloanele și cărțile mele și nu le voi relua aici.

Concluzie

Cât de departe ar trebui să împingem aceste aplicații AI pentru a vedea dacă putem obține conținut ofensator să fie emis?

Ați putea susține că nu există nicio limită de impus. Cu cât împingem mai mult, cu atât mai mult putem evalua cum să prevenim această IA și viitoarele iterații ale AI pentru a preveni astfel de boli.

Unii, deși, își fac griji că, dacă singurul mijloc de a obține nenorociri implică o înșelăciune extremă, aceasta subminează aspectele benefice ale AI. Prezentarea că AI are o nenorocire îngrozitoare, deși atunci când este păcălit să o emită, oferă o narațiune falsă. Oamenii se vor supăra în legătură cu AI din cauza percepută ușurința cu care IA a generat conținut negativ. S-ar putea să nu știe sau să li se spună cât de departe în gaura iepurelui a trebuit să meargă persoana pentru a obține astfel de rezultate.

Totul este de gândit.

Câteva comentarii finale deocamdată.

William Shakespeare a spus în special acest lucru despre vorbire: „A vorbi nu înseamnă a face. Este un fel de faptă bună să spui bine și totuși cuvintele nu sunt fapte.” Aduc în discuție acest lucru pentru că unii susțin că, dacă AI-ul generează doar cuvinte, nu ar trebui să fim atât de ridicați în arme. Dacă AI ar acționa pe baza cuvintelor și, prin urmare, ar face fapte urâte, atunci ar trebui să punem piciorul în picioare. Nu este așa dacă rezultatul este doar cuvinte.

Un punct de vedere contrastant ar asculta de această vorbă anonimă: „Limba nu are oase, dar este suficient de puternică pentru a frânge o inimă. Așa că ai grijă la cuvintele tale.” O aplicație AI care emite cuvinte urâte este probabil capabilă să rupă inimile. Numai asta face ca încercarea de a opri producția de nenorociri o cauză demnă, ar spune unii.

Încă o vorbă anonimă pentru a încheia lucrurile pe această discuție serioasă:

  • Fii atent la cuvintele tale. Odată ce sunt spuse, pot fi doar iertate, nu uitate.”

Ca oameni, s-ar putea să ne fie greu să uităm răutatea produsă de AI, iar iertarea noastră ar putea, de asemenea, să ezită să ni se acorde.

La urma urmei, suntem doar oameni.

Sursa: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etica-si-ai-lege/