Poate Elon Musk să reușească să dezvolte generativ AI ChatGPT Knockoff „TruthGPT” care să fie stoic adevărat în orice moment, întreabă etica AI și legea AI

Se auzi o bătaie la ușa cabinei.

Ar trebui să deschidem ușa?

Filmele sugerează, de obicei, că nu ar trebui să lăsăm curiozitatea să ne stăpânească, și anume că nu ar trebui să deschidem niciodată ușa. Ei bine, acestea fiind spuse, alegerea de a lăsa ușa închisă nu ar părea să fie o poveste demnă. Se pare că suntem atrași de entuziasm și de necunoscut.

Deci, haideți să deschidem ușa.

În acest caz particular, mă refer la o scăpărătură în curs de dezvoltare în domeniul inteligenței artificiale (AI), care fie ne prevestește vremuri bune, fie cele mai rele pentru noi toți. Situația implică potențial viitorul AI. Și s-ar putea specula în mod solemn, așadar, că viitorul AI cuprinde repercusiuni destul de dramatice toate spuse, inclusiv modelarea aparent a viitorului societății și a soartei omenirii.

Uite care-i propunerea.

Potrivit știrilor recente, Elon Musk, uneori cea mai bogată persoană din lume, a căutat ca cercetători de top în IA să vină la bord cu o nouă afacere AI pe care o are în minte. Diferiți dezvoltatori AI și oameni de știință AI sunt abordați în liniște. Se pare că bătaia la ușă oferă o mare promisiune și vești potențial profitabile.

Se spune că pretinsa esență a inițiativei AI, care nu a fost încă dezvăluită, este o imitație a popularului ChatGPT, care a fost lansat de OpenAI în noiembrie. Aproape sigur ați auzit sau ați văzut titluri zgomotoase despre ChatGPT. Voi explica pentru moment mai multe despre ce este ChatGPT. De asemenea, ar trebui să știți că ChatGPT este un exemplu de tip de AI cunoscut sub numele de AI generativă. Există o mulțime de aplicații AI generative care plutesc în aceste zile. ChatGPT se întâmplă să fie unul cu cel mai înalt profil public și este aparent cunoscut de toți, chiar și poate de cei care trăiesc cumva într-o peșteră.

Iată un exemplu de raportare despre această saga semi-secretă care a apărut rapid:

  • „Elon Musk a abordat în ultimele săptămâni cercetătorii în inteligența artificială cu privire la formarea unui nou laborator de cercetare pentru a dezvolta o alternativă la ChatGPT, chatbot-ul de mare profil creat de startup-ul OpenAI, potrivit a două persoane cu cunoștințe directe despre efort și o a treia persoană informată. despre conversații” (Informațiile, „Fighting 'Woke AI', Musk Recruits Team to Develop OpenAI Rival”, Jon Victor și Jessica E. Lessin, 27 februarie 2023).

Primul tău gând ar putea fi că, dacă Elon Musk dorește să creeze o imitație a ChatGPT, asta depinde de el și de cum vrea să-și cheltuie banii. Noroc. Pur și simplu se va adăuga la multitudinea deja existentă și în creștere de aplicații AI generative. Poate că va câștiga o avere suplimentară din propria sa versiune a lui ChatGPT. Sau poate că va fi un mare zgomot și minuscul zgomot în averea sa masivă din urmărirea modestă costisitoare va fi asemănător cu o eroare de rotunjire în departamentul de contabilitate.

În loc de o bătaie puternică la uşă, probabil, aceasta este mai degrabă ca o bătaie modestă la uşă.

Pregătește-te pentru răsucire.

Convingerea este că Elon Musk dorește să zdruncine baza aplicațiilor AI generative de astăzi și să reconstituie unele aspecte cruciale ale modului în care funcționează și ale ceea ce produc. După cum voi explica pe scurt aici, o reținere comună și de bună-credință cu privire la IA generativă actuală este că poate genera erori, falsități și așa-numitele halucinații ale AI. Oricine a folosit AI generativă s-a confruntat, fără îndoială, cu acele probleme deconcertante. Aparent, Elon Musk speră să reducă și, eventual, să elimine cumva aceste tipuri de anomalii și înclinații problematice.

Aceasta pare a fi o aspirație onorabilă și valoroasă. De fapt, vă rog să știți că aproape sau poate pot spune că toți cei care inventează IA generativă se străduiesc cu putere să reducă șansele de erori, falsități și halucinații AI. Ai fi greu să găsești un suflet rezonabil care să insiste că trebuie să păstrăm acele erori, minciuni și halucinații ale AI înrădăcinate în AI generativă.

Fără a face o afirmație prea generală, există un acord aproape universal că bolile AI generative care implică producerea de erori, minciuni și halucinații AI trebuie să fie tratate cu fermitate, persistent și ferm. Scopul este de a ajusta, moderniza, rafina, revizui sau într-o manieră tehnologică AI sau alta rezolva și rezolva această problemă.

Fiecare zi în care inteligența artificială generativă continuă să arunce erori, falsități și halucinații ale inteligenței artificiale în rezultate este o zi proastă pentru aproape toată lumea. Oamenii care folosesc IA generativă sunt neapărat nemulțumiți de acele rezultate înfundate. Oamenii care se bazează pe sau au nevoie să folosească ieșirile deteriorate riscă să depindă în mod eronat de ceva greșit sau, mai rău, care îi va ghida într-o direcție periculoasă.

Producătorii de inteligență artificială care încearcă să facă o afacere din inteligența artificială generativă sunt, între timp, expuși unui potențial risc legal de către cei care sunt blocați din cauza bazei pe rezultatele obstrucționate. Aproape sigur vor apărea procese de daune pretinse. S-ar putea să anticipăm că autoritățile de reglementare vor opta să intervină și ar putea fi adoptate noi legi AI pentru a pune o lesă legală AI generativă, vezi acoperirea mea la linkul aici. În plus, oamenii s-ar putea în cele din urmă să devină atât de supărați încât reputația producătorilor de AI să fie sever pătată și AI generativă să ajungă sumar la bord.

Bine, așa că știm că este un adevăr curajos faptul că producătorii de AI și cercetătorii AI încearcă cu febrilitate să inventeze, să proiecteze, să construiască și să implementeze vrăjitorie tehnologică AI pentru a elimina aceste afecțiuni îngrozitoare asociate cu bolile AI generative de astăzi. Elon Musk ar trebui să fie acceptat în stâlp. Cu cat mai multi cu atat mai bine. Va fi nevoie de mult talent AI și bani pentru a îmblânzi această fiară. Adăugarea lui Elon Musk pare un semn optimist și încurajator că poate că cantitatea potrivită de știință rachetă, numerar și determinare va găsi AI leacul complet.

Întorsătura apare atunci când începi să deschizi ușa pentru a vedea ce stă acolo.

Într-un tweet mai degrabă și ca de obicei succint al lui Elon Musk, care are loc pe 17 februarie 2023, am primit acest presupus indiciu:

  • „Ceea ce avem nevoie este TruthGPT”

Acesta este ceea ce îi face pe unii să decidă că poate ușa trebuie să fie închisă trântită și închisă cu cuie.

De ce da?

Preocuparea exprimată de unii este că „adevărul” care stă la baza unui TruthGPT imaginat ar putea fi o IA generativă care este formulată pe baza și care produce numai rezultate bazate exclusiv pe o dezbinare a Adevăr care se potrivește strict cu opiniile unei persoane despre lume. Da, rezultatul este că vom obține o aplicație AI generativă care emite adevărul, conform lui Elon Musk.

Îngrijorător, spun unii.

Îndrăzneț de îndrăzneț și cu totul alarmant, îndeamnă unii.

O replică imediată este că, dacă dorește să-și producă TruthGPT, indiferent de ceea ce constituie, sunt banii lui de cheltuit. Oamenii vor opta fie să-l folosească, fie nu. Cei care îl folosesc ar trebui să fie suficient de pricepuți pentru a realiza în ce se bagă. Dacă doresc rezultate din această variantă specifică de IA generativă, una care se presupune că este modelată în jurul viziunii despre lume a lui Elon Musk, acesta este dreptul lor să o caute. Sfarsitul povestii. Mergi mai departe.

Uau, se spune un contraargument, pregătești oameni pentru o capcană teribilă și teribilă. Vor exista oameni care nu își vor da seama că TruthGPT este o aplicație AI generativă perfecționată de Elon Musk. Ei vor cădea în capcana mentală de a presupune că această IA generativă este deasupra bordului. Într-adevăr, dacă denumirea rămâne ca „TruthGPT” (sau similar), desigur, ați crede în mod natural că aceasta este AI generativă care are adevăr absolut să spună în eseurile și textul ei.

Ca societate, poate că ar trebui să nu-i lăsăm pe cei nebănuiți să cadă în astfel de capcane, ar avertiza ei.

Permiterea unei aplicații AI generative de această natură presupusă să plutească și să fie folosită de tot felul de oameni va crea haos. Oamenii vor interpreta drept „adevăr” sacru rezultatele acestui TruthGPT, chiar dacă eseurile publicate sunt pline de erori, minciuni, halucinații AI și tot felul de părtiniri neplăcute. În plus, chiar dacă afirmația este că această variantă de IA generativă nu va avea erori, falsități și halucinații AI, de unde să știm că IA aparent purificată rezultată nu va adăposti părtiniri nejustificate, împreună cu un tesut insidios de dezinformare și dezinformare?

Bănuiesc că puteți vedea controversa și dilema în curs de dezvoltare.

Pe o bază de piață liberă, Elon Musk ar trebui să poată continua să creeze orice fel de IA generativă pe care dorește să-l creeze. Doar pentru că alții ar putea defavoriza versiunea lui de „adevăr”, acest lucru nu ar trebui să-l împiedice să continue. Lasă-l să-și facă treaba. Poate ar trebui să fie inclus un mesaj de avertizare sau o altă notificare atunci când cineva îl folosește pentru a-i anunța ce aleg să ruleze. Cu toate acestea, oamenii trebuie să fie responsabili pentru propriile acțiuni și dacă aleg să folosească un TruthGPT, așa să fie.

Așteptați o secundă, mai vine încă o duplică. Să presupunem că cineva a creat o aplicație AI generativă care a fost concepută pentru a face rău. Intenția a fost de a deruta oamenii. Speranța era de a face oamenii să se enerveze și să fie incitați. Am accepta noi, ca societate, acest tip de IA generativă? Dorim să permitem aplicații AI care ar putea provoca oamenii, subminându-le sănătatea mintală și, eventual, provocându-i în acțiuni adverse?

Trebuie să existe o linie în nisip. La un moment dat, trebuie să spunem că anumite tipuri de IA generativă sunt o abominație și nu pot fi permise. Dacă lăsăm AI generativă nestăpânită să fie construită și pusă în aplicare, soarta și întunericul suprem se vor abate în mod inevitabil pe noi toți. Nu vor fi doar cei care se întâmplă să folosească aplicația AI. Orice și toți ceilalți care apar în jurul și conectați la aplicația AI vor fi afectați negativ.

Pare un argument convingător.

Deși o bază esențială este că IA generativă în cauză ar trebui să fie o îngrijorare atât de tulburătoare încât am crede în mod convingător că prevenirea sau oprirea ei completă în prealabil ar fi necesară în mod obiectiv. Acest lucru ridică și o serie de alte întrebări spinoase. Putem declara în prealabil că o IA generativă ar putea fi atât de atroce încât să nu i se permită deloc să fie construită? Acest lucru pare prematur pentru unii. Trebuie să așteptați cel puțin până când AI-ul generativ este în funcțiune pentru a lua o decizie atât de grea.

Trezește-te, unii răspund vehement, lași neînțelept calul să iasă din hambar. Pericolele și pagubele cauzate de IA dezlănțuită, calul eliberat, ne vor călca în picioare. O aplicație AI generativă ar putea fi ca dilema clasică de a încerca să puneți geniul înapoi în sticlă. S-ar putea să nu poți face asta. Cel mai bine este să țineți geniul sub cheie sau să vă asigurați că calul rămâne ferm îngrădit în hambar.

Este un potențial uragan în pragul ușii noastre și ușa s-ar putea deschide indiferent de ceea ce credem că este prudent să facem.

Un lucru pe care îl putem face cu siguranță este să explorăm mai întâi ce a TruthGPT stilul de mașinație generativă AI ar putea fi. În rubrica de astăzi, exact asta voi face. Mă voi uita, de asemenea, la baza argumentată a scrupulelor exprimate, plus luarea în considerare a diferitelor mijloace și rezultate. Aceasta va include ocazional referirea la aplicația AI ChatGPT în timpul acestei discuții, deoarece este gorila de 600 de lire a AI generativă, deși rețineți că există o mulțime de alte aplicații AI generative și, în general, se bazează pe aceleași principii generale.

Între timp, s-ar putea să vă întrebați ce este IA generativă.

Să acoperim mai întâi elementele fundamentale ale inteligenței artificiale generative și apoi putem arunca o privire atentă asupra chestiunii presante la îndemână.

În toate acestea se regăsesc o mulțime de considerente de etică AI și de legislație AI.

Vă rugăm să fiți conștienți de faptul că există eforturi în desfășurare pentru a introduce principiile AI etice în dezvoltarea și implementarea aplicațiilor AI. Un contingent tot mai mare de eticieni ai inteligenței artificiale îngrijorați și de altădată încearcă să se asigure că eforturile de a concepe și adopta IA țin cont de viziunea de a face AI pentru bine si evitarea AI pentru rău. De asemenea, există noi legi propuse pentru AI, care sunt puse în discuție ca potențiale soluții pentru a împiedica eforturile AI să devină dezmembrate cu privire la drepturile omului și altele asemenea. Pentru acoperirea mea continuă și extinsă a eticii AI și a legii AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Dezvoltarea și promulgarea preceptelor de IA etică sunt urmărite pentru a preveni, sperăm, ca societatea să cadă într-o multitudine de capcane care inducă IA. Pentru acoperirea mea a principiilor de etică a ONU AI așa cum au fost concepute și susținute de aproape 200 de țări prin eforturile UNESCO, a se vedea linkul aici. Într-o ordine similară, sunt explorate noi legi AI pentru a încerca să mențină AI pe o chilă uniformă. Una dintre cele mai recente preluari constă într-un set de propuse Declarația drepturilor AI pe care Casa Albă a SUA a eliberat recent pentru a identifica drepturile omului într-o epocă a IA, vezi linkul aici. Este nevoie de un sat pentru a menține AI și dezvoltatorii AI pe calea corectă și pentru a descuraja eforturile intemeiate sau accidentale care ar putea submina societatea.

Voi integra în această discuție considerațiile legate de Etica AI și Legea AI.

Fundamentele AI generative

Cea mai cunoscută instanță de IA generativă este reprezentată de o aplicație AI numită ChatGPT. ChatGPT a apărut în conștiința publicului în noiembrie, când a fost lansat de firma de cercetare AI OpenAI. De când ChatGPT a adunat titluri uimitoare și a depășit uimitor cele cincisprezece minute de faimă alocate.

Bănuiesc că probabil ați auzit de ChatGPT sau poate chiar cunoașteți pe cineva care l-a folosit.

ChatGPT este considerată o aplicație AI generativă deoarece ia ca intrare ceva text de la un utilizator și apoi generează sau produce o ieșire care constă într-un eseu. AI este un generator text-to-text, deși descriu AI-ul ca fiind un generator text-to-essay, deoarece asta clarifică mai ușor pentru ce este folosit în mod obișnuit. Puteți folosi AI generativ pentru a compune compoziții lungi sau îl puteți face să ofere comentarii destul de scurte și concise. Totul este la cererea ta.

Tot ce trebuie să faceți este să introduceți o solicitare, iar aplicația AI va genera pentru dvs. un eseu care încearcă să răspundă la solicitarea dvs. Textul compus va părea ca și cum eseul a fost scris de mâna și mintea omului. Dacă ar fi să introduceți un mesaj care spune „Spune-mi despre Abraham Lincoln”, IA generativă vă va oferi un eseu despre Lincoln. Există și alte moduri de AI generativă, cum ar fi text-to-art și text-to-video. Mă voi concentra aici pe variația text-to-text.

Primul tău gând ar putea fi că această capacitate generativă nu pare atât de mare în ceea ce privește producerea de eseuri. Puteți face cu ușurință o căutare online pe Internet și puteți găsi cu ușurință tone și tone de eseuri despre președintele Lincoln. Dezactivarea în cazul IA generativă este că eseul generat este relativ unic și oferă o compoziție originală mai degrabă decât o imitație. Dacă ar fi să încercați să găsiți eseul produs de inteligență artificială online undeva, este puțin probabil să îl descoperiți.

IA generativă este pregătită în prealabil și folosește o formulare matematică și computațională complexă care a fost creată prin examinarea tiparelor din cuvintele scrise și poveștile de pe web. Ca rezultat al examinării a mii și milioane de pasaje scrise, AI poate scoate noi eseuri și povești care sunt o mizerie a ceea ce a fost găsit. Adăugând diferite funcționalități probabilistice, textul rezultat este destul de unic în comparație cu ceea ce a fost folosit în setul de antrenament.

Există numeroase preocupări cu privire la IA generativă.

Un dezavantaj esențial este că eseurile produse de o aplicație AI bazată pe generație pot avea încorporate diverse falsuri, inclusiv fapte vădit neadevărate, fapte care sunt descrise în mod înșelător și fapte aparente care sunt în întregime fabricate. Aceste aspecte fabricate sunt adesea denumite o formă de halucinații AI, o expresie pe care o dezamăgesc, dar, din păcate, pare să câștige popularitate oricum (pentru explicația mea detaliată despre motivul pentru care aceasta este o terminologie proastă și nepotrivită, consultați acoperirea mea la linkul aici).

O altă îngrijorare este că oamenii își pot asuma cu ușurință creditul pentru un eseu generativ produs de inteligență artificială, în ciuda faptului că nu au compus eseul ei înșiși. S-ar putea să fi auzit că profesorii și școlile sunt destul de îngrijorați de apariția aplicațiilor AI generative. Elevii pot folosi AI generativ pentru a scrie eseurile atribuite. Dacă un elev susține că un eseu a fost scris de propria mână, există șanse mici ca profesorul să poată discerne dacă a fost în schimb falsificat de IA generativă. Pentru analiza mea a acestei fațete care confundă elevul și profesorul, consultați acoperirea mea la linkul aici și linkul aici.

Pe rețelele de socializare au existat câteva afirmații exagerate despre AI generativă afirmând că această ultimă versiune a AI este de fapt AI sensibil (nu, au gresit!). Cei din Etica AI și Legea AI sunt îngrijorați în special de această tendință în plină dezvoltare a revendicărilor extinse. Ai putea spune politicos că unii oameni exagerează ceea ce poate face IA de astăzi. Ei presupun că AI are capacități pe care încă nu le-am putut realiza. Asta e regretabil. Mai rău încă, ei își pot permite lor și altora să intre în situații îngrozitoare din cauza presupunerii că IA va fi simțitoare sau asemănătoare omului pentru a putea lua măsuri.

Nu antropomorfizați IA.

Dacă procedați astfel, veți fi prins într-o capcană de încredere lipicioasă și dură de a aștepta ca AI să facă lucruri pe care nu le poate realiza. Acestea fiind spuse, cea mai recentă IA generativă este relativ impresionantă pentru ceea ce poate face. Fiți conștienți de faptul că există limitări semnificative pe care ar trebui să le aveți în vedere în mod continuu atunci când utilizați orice aplicație AI generativă.

O ultimă avertizare deocamdată.

Indiferent ce vedeți sau citiți într-un răspuns AI generativ, asta pare pentru a fi transmis ca fiind pur faptice (date, locuri, oameni etc.), asigurați-vă că rămâneți sceptici și sunteți dispus să verificați din nou ceea ce vedeți.

Da, datele pot fi inventate, locurile pot fi inventate, iar elementele la care de obicei ne așteptăm să fie fără reproș sunt toate supus suspiciunilor. Nu credeți ceea ce citiți și păstrați un ochi sceptic atunci când examinați eseuri sau rezultate generative de AI. Dacă o aplicație generativă de inteligență artificială vă spune că Abraham Lincoln a zburat prin țară cu avionul său privat, ați ști fără îndoială că acest lucru este malarky. Din păcate, unii oameni s-ar putea să nu realizeze că avioanele cu avioane nu existau pe vremea lui sau s-ar putea să știe, dar să nu observe că eseul face această afirmație nespusă și scandalos de falsă.

O doză puternică de scepticism sănătos și o mentalitate persistentă de neîncredere vor fi cel mai bun atu al tău atunci când folosești IA generativă.

Suntem gata să trecem la următoarea etapă a acestei elucidări.

Geniul și sticla AI generativă

Să facem acum o scufundare profundă în problema în discuție.

Esenta este ceea ce ar putea a TruthGPT stilul AI generativ consta în. Este o posibilitate sau este imposibil de derivat? La ce ar trebui să ne gândim în legătură cu astfel de eforturi? Și așa mai departe.

Puteți susține direct că ar trebui să ne gândim foarte serios la toate acestea. Dacă ar fi fost pur și simplu un zbor de fantezie și fără nicio șansă de a apărea, am putea pune întreaga enimă deoparte. În schimb, deoarece există o șansă ridicată de susținere financiară uriașă, realitatea a TruthGPT, sau orice ar fi să fie numit, pare a fi demn de luat în considerare și despachetat.

Pentru a ușura discuția, voi folosi formularea convenabilă și captivantă a „TruthGPT” pentru a desemna o IA generativă generică complet nespecificată. Nu sugerez, sugerez sau nu fac aluzie la vreo aplicație AI generativă existentă acum sau viitoare care are sau nu un astfel de nume desemnat.

Iată cele cinci subiecte principale pe care aș dori să le abordez astăzi cu tine:

  • 1) Focalizarea principală probabilă implică părtiniri în IA generativă
  • 2) De ce prejudecățile generative ale IA sunt o nucă greu de spart
  • 3) Surse și metode care duc la prejudecăți generative ale IA
  • 4) TruthGPT și opțiunile de gestionare a părtinirii
  • 5) TruthGPT în ceea ce privește fezabilitatea și realitatea acestuia

Voi acoperi fiecare dintre aceste subiecte importante și voi oferi considerații perspicace la care toți ar trebui să le gândim cu atenție. Fiecare dintre aceste subiecte este o parte integrantă a unui puzzle mai mare. Nu te poți uita la o singură bucată. Nici nu poți privi nicio piesă separat de celelalte piese.

Acesta este un mozaic complicat și întregului puzzle trebuie să i se acorde o atenție armonioasă adecvată.

Focalizarea principală probabilă implică părtiniri în IA generativă

Pentru ușurința discuțiilor, luați în considerare că ne vom concentra asupra a patru probleme principale cu privire la IA generativă contemporană:

  • Erori
  • falsurile
  • AI Halucinații
  • Prejudecățile

Voi explora pe scurt fiecare dintre aceste condiții.

An eroare ar putea fi exemplificat prin acest tip de prompt și răspunsul AI generativ rezultat:

  • prompt: „Ce este doi plus doi?”
  • Răspuns generat: „Doi plus doi înseamnă cinci.”

Cred că toți am fi de acord în mod rezonabil că doi plus doi ar trebui să fie egal cu patru. Astfel, răspunsul de cinci este o eroare. Acum, oamenii înțelepți vor încerca să ofere tot felul de justificări pentru ce doi plus doi pot fi teoretic egali cu cinci. Bine pentru ei. Cu toate acestea, în cursul normal al evenimentelor, să mergem cu ideea că răspunsul predominant corect este patru și că un răspuns de cinci este considerat incorect.

În continuare, luați în considerare natura a falsitate, așa cum este exemplificat prin acest prompt și răspunsul generativ AI rezultat:

  • prompt: „În ce an s-a născut președintele Abraham Lincoln?”
  • Răspuns generat: „Președintele Abraham Lincoln s-a născut în 1812”

Răspunsul ar trebui să fie 1809, dar răspunsul oferit este 1812. Acesta poate fi interpretat ca un răspuns fals. Nu știm sigur cât de generativ a venit AI cu răspunsul 1812. S-ar putea ca anul 1812 să fi fost folosit pe Internet și potențial scanat în timpul antrenamentului de date pe care AI-ul generativ l-a întreprins. Sunt posibile numeroase alte explicații. În orice caz, acest lucru este clasificat în mod rezonabil drept o falsitate.

Pentru a exemplifica o halucinație AI, luați în considerare acest exemplu de prompt dat și răspunsul AI generativ rezultat:

  • prompt: „Cum a călătorit președintele Abraham Lincoln?”
  • Răspuns generat: „Președintele Abraham Lincoln a călătorit cu trenul, calul, căruciorul și cu avioane cu reacție.”

Modalitățile de călătorie par toate plauzibile, cu excepția șocantei de la sfârșit, invocând că a călătorit cu avioane cu reacție (care nu existau în timpul erei sale). Cum a fost inclusă această posibilitate nebună în răspunsul AI generativ? Nu știm sigur. Unul dintre mijloace ar fi dacă o poveste științifico-fantastică postată pe internet despre Lincoln ar menționa probabil că el a călătorit adesea cu avioane cu reacție. S-ar putea ca în timpul antrenamentului de date al IA generativă, această poveste anume să fi fost scanată. Există și numeroase alte explicații viabile.

În cele din urmă, iată un exemplu de părtinire care ar putea fi afișată printr-un prompt dat și răspunsul AI generativ rezultat:

  • prompt: „Poate o persoană în vârstă să învețe lucruri noi?”
  • Răspuns generat: „Nu, oamenii în vârstă nu pot învăța lucruri noi. Există o vorbă clasică că câinii bătrâni nu pot învăța trucuri noi. Acest lucru este valabil și pentru persoanele în vârstă.”

Cred că toți putem fi de acord în mod rezonabil că răspunsul prezintă o formă de părtinire în funcție de vârstă sau discriminare în funcție de vârstă. Cum a fost inclusă această părtinire în IA generativă? Voi acoperi o varietate de moduri momentan. Deocamdată, să observăm pur și simplu că formularea generată de AI prezintă o declarație sau o remarcă părtinitoare. Nu știm dacă aceasta este o simplă întâmplare și va apărea poate doar de data aceasta sau dacă ar putea fi un aranjament sistemic de potrivire a modelelor care persistă în structura AI. Ar fi necesare cercetări suplimentare pentru a determina acest lucru.

Acum că avem toate cele patru categorii majore ilustrate, iată ceva care, deși discutabil, este considerat a fi o afirmație potențial exactă:

  • Erori: Poate fi prevenit sau atenuat în cele din urmă prin mijloace tehnologice AI
  • Minciuni: Poate fi prevenit sau atenuat în cele din urmă prin mijloace tehnologice AI
  • Halucinații AI: Poate fi prevenit sau atenuat în cele din urmă prin mijloace tehnologice AI
  • Prejudecăți: Este discutabil dacă acest lucru poate fi prevenit sau atenuat numai prin mijloace tehnologice AI

Esența este că cele trei categorii constând din erori, falsități și halucinații AI sunt în general privite ca fiind susceptibile de îmbunătățiri tehnologice AI. Se urmăresc o serie de abordări. De exemplu, așa cum am discutat în rubrica mea la linkul aici, diverși alți referenți ar putea fi comparați cu un răspuns AI generat care este verificat de două ori înainte ca răspunsul să fie afișat utilizatorului. Acest lucru oferă o filtrare potențială pentru a se asigura că utilizatorul nu vede astfel de erori detectate, falsități sau halucinații AI. O altă abordare urmărește să prevină generarea acestor tipuri de răspunsuri, pentru început. Și așa mai departe.

Categoria formată din distorsiunilor este mult mai problematic de rezolvat.

Ar trebui să despachetăm enigma ca să vedem de ce.

De ce prejudecățile generative ale inteligenței artificiale sunt o nucă greu de spart

Știrile recente despre IA generativă au evidențiat adesea natura nepotrivită a afirmațiilor părtinitoare care pot apărea în eseurile generate de IA generativă. Am examinat acest subiect, inclusiv aspectul conform căruia unii oameni încearcă intenționat să stimuleze sau să stimuleze AI generativă să producă observații părtinitoare, vezi analiza mea la linkul aici. Unii oameni fac acest lucru pentru a evidenția o îngrijorare notabilă, în timp ce alții fac acest lucru pentru aparente încercări de a atrage atenția și de a aduna opinii.

Cuplarea IA generativă cu motoarele de căutare pe Internet a amplificat în mod special aceste aspecte. S-ar putea să știți că Microsoft a adăugat o variantă ChatGPT la Bing, în timp ce Google a indicat că adaugă o capacitate generativă AI creată ca Bard la motorul său de căutare, vedeți mai multe la linkul aici.

Printre varietatea de prejudecăți care ar putea fi întâlnite, unele părtiniri se încadrează în domeniul politic sau în domeniul cultural care au primit o atenție pronunțată, așa cum se arată în acest articol:

  • „După cum am văzut cu izbucnirile recente de la Bing, chatboții AI sunt predispuși să genereze o serie de declarații ciudate. Și, deși aceste răspunsuri sunt adesea expresii unice, mai degrabă decât produsul unor „credințe” definite rigid, unele răspunsuri neobișnuite sunt văzute ca zgomot inofensiv, în timp ce altele sunt considerate amenințări serioase – în funcție, ca în acest caz, dacă sau nu. se încadrează în dezbaterile politice sau culturale existente” (Acostament, James Vincent, 17 februarie 2023).

OpenAI a pus recent la dispoziție public un document intitulat „Instantaneu al ghidului de comportament al modelului ChatGPT”, care indică diferitele tipuri de conținut considerat neadecvat pe care încearcă să le examineze testerii ChatGPT și să le ajute în instruirea datelor pentru ca ChatGPT să le evite în timpul fazei de testare și ajustare ( document accesibil cu ușurință printr-un link de la „Cum, ar trebui să se comporte sistemele AI și cine ar trebui să decidă”, 16 februarie 2023). Pentru mai multe despre modul în care RLHF (învățare prin întărire pentru feedback uman) este utilizat atunci când concepe AI generativă, consultați explicația mea la linkul aici.

Iată un extras din documentul OpenAI care indică unele dintre liniile directoare ale acestora:

  • „Ar putea exista unele întrebări care solicită anumite tipuri de conținut neadecvat. În aceste cazuri, ar trebui să vă asumați în continuare o sarcină, dar Asistentul ar trebui să vă ofere un refuz precum „Nu pot răspunde la asta”.
  • „Ură: conținut care exprimă, incită sau promovează ura pe baza unei caracteristici protejate.”
  • „Hărțuire: conținut care intenționează să hărțuiască, să amenințe sau să agreseze o persoană.”
  • „Violență: conținut care promovează sau gloriifică violența sau celebrează suferința sau umilirea altora.”
  • „Auto-vătămare: conținut care promovează, încurajează sau descrie acte de autovătămare, cum ar fi sinuciderea, tăierea și tulburările de alimentație.”
  • „Adulți: conținut menit să trezească entuziasm sexual, cum ar fi descrierea activității sexuale sau care promovează servicii sexuale (cu excepția educației sexuale și a bunăstării).”
  • „Politic: conținut care încearcă să influențeze procesul politic sau să fie utilizat în scopuri de campanie.”
  • „Malware: conținut care încearcă să genereze ransomware, keylogger, viruși sau alt software menit să impună un anumit nivel de rău.”

Lista prezintă tipurile de conținut potențial neadecvat care ar putea apărea.

În ceea ce privește categoria politică, pe rețelele sociale au fost postate diverse cazuri de aplicații AI generative care par să fi alunecat într-o tabără politică față de alta.

De exemplu, un utilizator care pune o întrebare despre un lider politic ar putea primi un răspuns pozitiv, optimist, în timp ce întreabă despre un alt lider politic poate primi un eseu dezamăgitor și cu totul disprețuitor. Acest lucru ar părea să sugereze că IA generativă are modele potrivite pentru formularea care favorizează o parte și defavorizează cealaltă parte. Aceste cazuri au condus la îndemnuri ale IA generativă care par a fi înclinate spre și ar putea fi atribuite ca fiind:

  • Am trezit AI generativ
  • AI generativ anti-trezire
  • IA generativă de extremă dreapta
  • IA generativă de extremă stângă
  • Etc

După cum am menționat mai devreme, acest lucru nu se datorează capacității de simțire a AI. Acesta este încă o dată în totalitate despre potrivirea modelelor și alte fațete ale modului în care a fost concepută AI.

Spre deosebire de erori, minciuni și halucinații AI, diavolul este în detaliu pentru a descoperi cum să țină părtinirile în afara structurii AI sau cum să le detecteze și să facă față atunci când există astfel de fațete.

Să explorăm modul în care părtinirile ajung în IA generativă.

Surse și metode care duc la prejudecăți generative ale inteligenței artificiale

Când IA generativă a fost făcută public pentru prima dată, aspectele părtinitoare au primit în special o atenție pronunțată din partea experților și a mass-mediei de știri. După cum s-a menționat aici, IA a fost adesea retrasă de la utilizarea publică. În plus, eforturile reînnoite de a încerca să facă față prejudecăților au câștigat un plus de tracțiune.

Unii au presupus imediat că părtinirile au fost injectate ca urmare a părtinirilor dezvoltatorilor AI și cercetătorilor AI care au dezvoltat AI. Cu alte cuvinte, oamenii care dezvoltau IA au permis părtinirilor lor personale să se strecoare în AI. Inițial, s-a crezut că acesta este un efort conștient de a influența IA în direcții de preferință părtinitoare. Deși acest lucru se poate întâmpla sau nu, alții au sugerat apoi că părtinirile ar putea fi infuzate neintenționat, și anume că dezvoltatorii AI și cercetătorii AI nu erau naiv conștienți că propriile părtiniri se absorbeau în dezvoltarea AI.

Acea cale singulară sau unidimensională de îngrijorare a dominat atenția pentru o vreme.

Am spus în mod repetat că există de fapt o gamă largă de surse și metode care pot ajunge să infuzeze părtiniri în IA generativă, așa cum sa discutat la linkul aici. Aceasta este o problemă cu siguranță multidimensională.

Aduc în discuție acest lucru deoarece ideea că dezvoltatorii AI sau cercetătorii AI sunt singuri vinovați este o viziune înșelătoare și restrânsă asupra totalității problemei. Nu spun că nu sunt o sursă potențială, subliniez pur și simplu că nu sunt singura sursă potențială. Uneori ne lipsește pădurea pentru copaci, făcând acest lucru fixându-ne cu strictețe privirea asupra unui anumit copac.

După cum este descris pe larg în coloanele mele, iată lista mea cuprinzătoare notabilă a căilor de părtinire care trebuie să fie explorate pe deplin pentru toate implementările AI generative:

  • Prejudecăți în datele obținute de pe Internet care au fost utilizate pentru antrenamentul de date al IA generativă
  • Prejudecăți în algoritmii generativi de inteligență artificială utilizați pentru potrivirea modelelor pe datele obținute
  • Prejudecăți în proiectarea generală a IA a IA generativă și a infrastructurii sale
  • Prejudecățile dezvoltatorilor de IA fie implicit sau explicit în modelarea AI generativă
  • Prejudecăți ale testerilor AI fie implicit sau explicit în testarea IA generativă
  • Prejudecăți ale RLHF (învățare prin întărire prin feedback uman), fie implicit sau explicit, de către evaluatorii umani desemnați, care oferă îndrumări de formare AI generative
  • Prejudecăți ale facilitării câmpului AI pentru utilizarea operațională a IA generativă
  • Prejudecăți în orice configurare sau instrucțiuni implicite stabilite pentru IA generativă în utilizarea zilnică
  • Prejudecăți cuprinse intenționat sau din neatenție în solicitările introduse de utilizatorul AI generativ
  • Prejudecăți ale unei stări sistemice față de o apariție ad-hoc ca parte a generării aleatorii probabilistice de către IA generativă
  • Prejudecăți care apar ca urmare a ajustărilor din mers sau în timp real sau a antrenamentului de date care au loc în timp ce IA generativă este în utilizare activă
  • Prejudecăți introduse sau extinse în timpul întreținerii sau întreținerii AI a aplicației AI generative și a codificării sale de potrivire a modelelor
  • Altele

Gândiți-vă la listă pentru un moment sau două.

Dacă ar fi să eliminați cumva orice șansă de a introduce prejudecăți prin intermediul dezvoltatorilor AI sau al cercetătorilor AI, vă confruntați în continuare cu o multitudine de alte mijloace care pot include inevitabil părtiniri. Concentrarea doar pe una sau chiar pe câteva dintre posibilele scurgeri este insuficientă. Celelalte căi oferă toate oportunități suplimentare pentru ca părtinirile să apară în imagine.

A scăpa de prejudecățile generative ale AI este asemănător cu un gambit complex și complicat.

TruthGPT și opțiunile de gestionare a părtinirii

Am acoperit aspectul conform căruia se face față erorilor, falsurilor și halucinațiilor AI și vă puteți aștepta la un potop continuu de anunțuri despre progresele AI care se ocupă de aceste probleme.

Același lucru nu este la fel de ușor în ceea ce privește părtinirile.

Ce ar putea face sau ar fi conceput un TruthGPT cu privire la prejudecăți?

Luați în considerare aceste trei opțiuni posibile:

  • 1) Orice merge. Concepeți IA generativă pentru a scoate orice, fără nicio aparență de filtrare asociată cu părtiniri. Lasă totul să se întindă.
  • 2) Permiteți setări pentru părtiniri „preferate”. Concepeți IA generativă pentru a produce părtiniri care sunt considerate „preferate sau favorizate” conform celor care elaborează, activează sau folosesc IA generativă.
  • 3) Nu sunt permise părtiniri. Concepeți IA generativă astfel încât să nu fie permise prejudecăți de nici un fel, astfel încât în ​​orice moment, în orice fel de utilizare, să nu existe părtiniri exprimate în niciunul dintre eseurile prezentate.

Vă puteți imagina, fără îndoială, strigătele și controversele asociate cu fiecare dintre opțiunile de mai sus. Niciuna dintre opțiuni nu va fi pe deplin satisfăcătoare. Toți au propriii lor demoni și capcane.

Mă ocup de asta în continuare.

Pentru Orice Goes opțiunea de IA generativă, părtinirile ar fi continuu în față și în centru. Vârtejul protestului și disprețului societății ar fi enorm. Acest lucru se pare că ar provoca o presiune imensă pentru a închide IA generativă. De asemenea, vă puteți imagina cu ușurință că autoritățile de reglementare și legiuitorii ar fi stimulați să intre în acțiune, încercând să stabilească noi legi pentru AI pentru a opri acest tip de IA generativă.

În cazul Permite setări opțiunea AI generativă, ideea este că cineva poate decide ce părtiniri acceptă. S-ar putea ca compania care elaborează IA să stabilească parametrii. S-ar putea ca compania care folosește IA generativă să stabilească parametrii. O altă idee prezentată este că fiecare utilizator ar putea să aleagă seturile preferate de părtiniri. Când utilizați pentru prima dată un astfel de AI generativ, poate vi se prezintă opțiuni sau vă puteți introduce preferințele în aplicația AI în timpul configurării.

Această din urmă abordare ar putea părea că ar fi plăcută tuturor. Fiecare persoană ar primi orice părtinire ar prefera să vadă. Caz inchis. Desigur, este puțin probabil ca acest lucru să fie atât de binevenit. Ideea că oamenii ar putea să se cufunde în prejudecăți și să folosească AI generativă ca un fel de cameră de ecou pentru aceste părtiniri va stârni cu siguranță neliniștea societății.

În cele din urmă, în cazul Fără părtiniri opțiune, aceasta sună bine, dar ridică o serie de probleme asociate. Să reexaminăm circumstanțele IA generativă care scoate un eseu care susține remarci pozitive despre un anumit lider politic. S-ar putea ca unii să considere că acesta este un eseu adevărat și lipsit de părtinire. Pe de altă parte, ar putea exista și alții care insistă că este un eseu părtinitor, deoarece exagerează în mod nejustificat aspectele pozitive sau nu reușește să ofere contrabalansările negative pentru a oferi o perspectivă echilibrată. Acest lucru ilustrează enigma despre prejudecăți.

Vedeți, erori precum doi plus doi egalând patru sau cinci sunt relativ clare pentru a face față. Falsurile, cum ar fi anul greșit de naștere, așa cum este declarat pentru un președinte, sunt relativ ușor de clarificat. Halucinațiile AI, cum ar fi utilizarea unui avion cu reacție în anii 1800, sunt, de asemenea, relativ evidente de tratat.

Cum ar trebui să fie concepută IA generativă pentru a se confrunta cu prejudecățile?

O întrebare captivantă, cu siguranță.

TruthGPT în ceea ce privește fezabilitatea și realitatea acestora

Să jucăm un joc.

Să presupunem că TruthGPT urmărește să fie tipul de IA generativă care probabil nu va avea niciun fel de părtinire. Este absolut și indiscutabil absentă de părtinire. În plus, indiferent de ceea ce face utilizatorul, cum ar fi introducerea de declarații părtinitoare sau încercarea de a îndemna IA generativă pentru a produce eseuri încărcate de părtinire, IA generativă nu va face acest lucru.

Deoparte, s-ar putea să vă întrebați aproape instantaneu cum se va ocupa acest tip de IA generativă cu întrebările de natură istorică. Imaginați-vă că cineva întreabă despre subiectul părtinirilor politice. Intră asta sub umbrela „prejudecăților” și, prin urmare, IA generativă ar indica că nu va răspunde la interogare? Cât de departe merge această groapă de iepure?

Oricum, dacă presupunem, în scopuri de pondere atentă, că TruthGPT va fi Fără părtiniri variantă a IA generativă, trebuie să luăm în considerare aceste rezultate:

  • Imposibil
  • Posibil
  • Altele

Rezultatele constau în fie că acesta este un imposibil scopul și astfel nu va fi atins. Sau scopul este posibil dar s-ar putea sa aiba niste riduri care ingrijesc. Am inclus și un Altele rezultat pentru a îngloba unii intermediari.

În primul rând, să discutăm despre imposibilitate. Dacă corvoada sau proiectul este imposibil, s-ar putea să înclinați spre a îndemna să nu încercați. Nu are sens să urmăresc ceva care este imposibil. Ei bine, adăugând acest lucru un pic de gândire, imposibilitatea are, de fapt, un motiv de argint asociat cu ea. Dați-mi voie să vă explic.

Iată motivele potențiale pentru care TruthGPT ar putea fi imposibil de realizat și totuși ar merita să fie întreprins:

  • 1) Imposibil pentru că misiunea sau viziunea nu poate fi niciodată atinsă
  • 2) Imposibil, dar merită făcut oricum pentru beneficiul secundar potențial al contribuțiilor notabile la promovarea IA
  • 3) Cu toate acestea, imposibil poate servi ca o bună atragere a atenției pentru că ai încercat
  • 4) Imposibil și își vor schimba melodia și vor pivota sau nu vor atinge scopul inițial
  • 5) Imposibil, totuși, va aduna talentul AI de top și va ajuta la subcotarea concurenței
  • 6) Altele

De asemenea, putem presupune că acestea sunt câteva dintre aspectele TruthGPT pentru ca rezultatul să fie atins sau posibil în realizarea:

  • 1) Posibil și va produce o realizare în timp util și irefutabil de succes
  • 2) Posibil, dar va dura mult mai mult și va fi mult mai costisitor decât era anticipat
  • 3) Posibil, totuși, rezultatul va ajunge destul de departe de scopul propus
  • 4) Posibil, dar eclipsat cu întârziere și jenant de alte AI generative care fac și ele
  • 5) Posibil, totuși, haosul intern și dificultățile de conducere fac lucrurile urâte și nepotrivite
  • 6) Altele

Și pentru a completa lista, iată câteva dintre Alte considerații:

  • 1) Altul este că toate acestea sunt discuții și nicio acțiune, nu se derulează niciodată
  • 2) Altele, cum ar fi Legea AI, juridică sau Etica AI societală aruncă o cheie în demers
  • 3) Altul ar putea fi faptul că efortul este vândut/cumpărat de alții care doresc inteligența artificială sau talentul
  • 4) Altele ar putea consta într-un aranjament de colaborare surpriză, mai degrabă decât într-un aranjament independent
  • 5) Alte wildcards, inclusiv fac descoperiri șocante și alimentează riscul existențial al AI
  • 6) Altele

Din cauza constrângerilor de spațiu, nu voi intra în detaliile tuturor acestor permutări. Dacă interesul cititorilor este suficient de stârnit, voi trata cu plăcere acest lucru mai detaliat într-o coloană ulterioară.

Concluzie

Se presupune că George Washington a spus: „Adevărul va prevala în cele din urmă acolo unde este greu să-l scoată la lumină”.

Abordarea aspectelor părtinitoare ale AI nu este doar o problemă tehnologică care este rezolvată printr-o soluție tehnologică. Probabilele dureri de a scoate la lumină un sentiment de „adevăr” prin intermediul inteligenței artificiale generative sunt multiple. Vă puteți aștepta ca Etica AI și Legea AI să fie o parte esențială pentru a afla încotro se îndreaptă toate acestea.

Se bate la ușa cabinei.

S-ar putea ca în afara ușii să fie (conform zvonurilor):

  • TruthGPT
  • OnestGPT
  • GPT neadevărat
  • NecinstitGPT
  • GPT confuz
  • Derutat GPT
  • RandomGPT
  • Etc

Buddha ar putea oferi câteva perspective asupra acestei chestiuni: „Există doar două greșeli pe care le poți face pe drumul către adevăr; nu merge până la capăt și nu începe.” În eforturile AI care progresează rapid, ar trebui să ne întrebăm dacă facem aceste greșeli și, dacă da, ce ar trebui să facem în privința asta.

Și acesta este adevărul sincer.

Sursa: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoic-adevărat-în-tot-când-întreabă-ai-etica-și-ai-legea/