Generative AI ChatGPT va fi peste tot odată ce portalul API va fi deschis în curând, uimind etica AI și legea AI

Eliberează Krakenul!

Fără îndoială, sunteți familiarizat cu acest celebru slogan rostit în special de actorul Liam Neeson în Ciocnirea titanilor când poruncește ca legendarul monstru marin să fie eliberat, cu scopul de a face ravagii imense și distrugeri uriașe. Linia s-a repetat la nesfârșit și a generat tot felul de meme-uri. În ciuda diferitelor parodii, majoritatea oamenilor încă simt, cel puțin visceral, că remarca prevestește că ceva de apariție umbră și periculoasă este pe cale să se dezlănțuie.

Poate că același sentiment poate fi aplicat în zilele noastre pentru Inteligența Artificială (AI).

Permiteți-mi să elaborez.

Un anunț recent a indicat că o aplicație AI răsunător de faimoasă, numită ChatGPT, realizată de organizația OpenAI, va fi în curând disponibilă pentru acces de către alte programe. Aceasta este o veste mare. Spun acest lucru, deși puțin din mass-media obișnuită a preluat declarația. În afară de mențiunile trecătoare, impactul deplin al acestui acces viitor va fi destul de semnificativ.

În rubrica de astăzi, voi explica de ce este cazul. Vă puteți pregăti în consecință.

Unii cred cu fermitate că acest lucru va fi asemănător cu eliberarea Krakenului, și anume că vor apărea tot felul de lucruri rele. Alții văd acest lucru ca fiind o resursă crucială care poate stimula o mulțime de alte aplicații prin valorificarea capacităților mari ale ChatGPT. Este ori cel mai rău ori cel mai bun timp. Vom lua în considerare ambele părți ale dezbaterii și puteți decide singur în ce tabără aterizați.

În toate acestea se regăsesc o mulțime de considerente de etică AI și de legislație AI.

Vă rugăm să fiți conștienți de faptul că există eforturi în desfășurare pentru a introduce principiile AI etice în dezvoltarea și implementarea aplicațiilor AI. Un contingent tot mai mare de eticieni ai inteligenței artificiale îngrijorați și de altădată încearcă să se asigure că eforturile de a concepe și adopta IA țin cont de viziunea de a face AI pentru bine si evitarea AI pentru rău. De asemenea, există noi legi propuse pentru AI, care sunt puse în discuție ca potențiale soluții pentru a împiedica eforturile AI să devină dezmembrate cu privire la drepturile omului și altele asemenea. Pentru acoperirea mea continuă și extinsă a eticii AI și a legii AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Au existat nemulțumiri tot mai mari că ChatGPT și alte aplicații similare de AI au o minune urâtă pe care poate nu suntem pregătiți să o gestionăm. De exemplu, s-ar putea să fi auzit că elevii din școli sunt potențial capabili să trișeze atunci când vine vorba de a scrie eseuri atribuite prin utilizarea ChatGPT. AI scrie pentru ei. Între timp, studentul este capabil să se întoarcă în eseu, aparent fără scot, ca și cum ar fi scris din propriul lor noggin. Nu ceea ce probabil ne dorim ca AI să facă pentru omenire.

Câteva elemente esențiale ar putea fi utile pentru a pregăti scena despre ce este vorba.

ChatGPT este un tip de IA denumit în mod obișnuit AI generativă. Aceste aplicații AI bazate pe generații de tendințe vă permit să introduceți o scurtă solicitare și ca aplicația să genereze rezultate pentru dvs. În cazul ChatGPT, rezultatul este text. Astfel, introduceți o solicitare de text și aplicația ChatGPT vă produce text. Tind să descriu acest lucru ca un anumit subtip de IA generativă care este perfecţionat pentru a genera rezultate text-to-ese (există alte subtipuri, cum ar fi text-to-image, text-to-video etc.).

Producătorul AI al ChatGPT a indicat că în curând va fi disponibil un API (Application Programming Interface) pentru aplicația AI. Pe scurt, un API este un mijloc de a permite altor programe să continue și să utilizeze un program care pune la dispoziție un portal în aplicația dată. Aceasta înseamnă că aproape orice alt program de pe această planetă poate valorifica utilizarea ChatGPT (ei bine, așa cum este licențiat și cu aprobarea de către producătorul AI al ChatGPT, așa cum va fi discutat în continuare aici).

Rezultatul este că utilizarea și utilizările ChatGPT ar putea trage prin acoperiș.

În timp ce astăzi există un număr impresionant de înscrieri care implică persoane care pe o individ bază pot folosi ChatGPT, limitat de producătorul AI la un milion de utilizatori, de fapt, aceasta va fi probabil o picătură în găleata a ceea ce urmează să vină.

Realizați că acele milioane de înscrieri existente constau dintr-o parte care a folosit ChatGPT într-o singură distracție și apoi, după ce fiorul a dispărut, nu l-au mai folosit de atunci. Mulți au fost probabil atrași de aplicația AI ca răspuns reactiv viral pe rețelele sociale. Pe scurt, dacă toți ceilalți voiau să-l folosească, voiau să o facă și ei. După o experimentare inițială cu IA bazată pe generații, s-au simțit mulțumiți că și-au evitat FOMO (frica de a pierde).

Pentru a fi strident de clar, nu sugerez că oamenii nu folosesc ChatGPT. Sunt. Cei care s-au înscris descoperă din ce în ce mai mult că aplicația AI este supraîncărcată. O mulțime și o mulțime de oameni folosesc aplicația. Primiți din când în când câteva indicii triste, compuse inteligent, că sistemul este ocupat și ar trebui să încercați din nou mai târziu. Pe stradă se spune că infrastructura existentă pentru ChatGPT s-a străduit să facă față fanilor pasionați care folosesc aplicația AI.

Și, deși a avea un milion de utilizatori potențiali nu este nimic de care să strănuți, este probabil că numărul va fi ușor eclipsat de mai multe ori odată ce API-ul va fi disponibil. Dezvoltatorii altor programe care astăzi nu au nimic de-a face cu IA generativă vor dori să profite de trenul AI generativ. Vor dori să-și conecteze programul cu ChatGPT. Speranța inimii lor este că acest lucru va spori programul lor existent în stratosfera popularității.

Gândește-te așa. Să presupunem că toate tipurile de companii de software care realizează astăzi programe care ajung la multe milioane de utilizatori, ajungând adesea la zeci și sute de milioane de utilizatori, aleg să-și împerecheze programele respective cu ChatGPT. Acest lucru sugerează că volumul de utilizatori care folosesc ChatGPT ar putea crește vertiginos.

Krakenul este eliberat.

De ce ar dori diverse companii de software să se asocieze cu ChatGPT, s-ar putea să vă întrebați?

Un răspuns simplu este că ar putea la fel de bine să exploateze vânturile uimitoare care împing ChatGPT înainte și în sus. Unii vor face acest lucru din motive sensibile și de deasupra bordului. Alții vor face asta doar pentru a încerca să câștige propria lor aparență de cincisprezece minute de faimă.

Îmi place să stratific perechile la ChatGPT ca fiind formate din două intenții majore:

  • Asociere autentică cu ChatGPT
  • Asociere falsă cu ChatGPT

În primul caz, ideea este că există o bază de bună credință pentru asocierea cu ChatGPT. Creatorii unui anumit program sunt capabili să articuleze bine beneficiile tangibile și funcționale care vor apărea din cauza asocierii programului lor cu ChatGPT. Putem cu toții să vedem într-un mod rezonabil că perechea este o potrivire făcută în rai.

Pentru celălalt caz, constând în ceea ce eu denumesc falsitate, unii vor căuta să se împerecheze cu ChatGPT pe o bază zburătoare sau șovăitoare. Cazul de afaceri nu constă în nimic deosebit de substanțial. Asocierea este o încercare disperată de a călări pe cozile ChatGPT. Orice inspecție rezonabilă ar dezvălui că perechea are o valoare marginală. Acum, dacă credeți că aceasta este o formă adecvată sau nepotrivită de asociere, rămâne oarecum în aer. S-ar putea încerca să argumenteze că o anumită împerechere cu ChatGPT, chiar dacă împerecherea nu realizează altceva decât creșterea utilizării și nu are nicio altă valoare aditivă funcțională, probabil că împerecherea este încă demnă de întreprins.

Un mic dezavantaj vor fi cele care descriu în mod fals perechea și îi fac pe oameni să creadă că ceva notabil se întâmplă atunci când într-adevăr nu este. Cu siguranță ne putem aștepta ca unii să încerce asta. Cei din AI Ethics sunt strident îngrijorați de utilizările uleiului de șarpe care vor ieși din lemn. Există și șansa ca, dacă acest lucru scăpa de sub control, s-ar putea să vedem noi legi legate de IA care vor fi stimulate să fie elaborate și adoptate.

Să examinăm mai îndeaproape ceea ce constituie perechi autentice și ce reprezintă, de asemenea, perechi false.

În primul rând, ar trebui să ne asigurăm că suntem cu toții pe aceeași pagină despre ce constă Generative AI și despre ce este ChatGPT. Odată ce acoperim această fațetă fundamentală, putem efectua o evaluare convingătoare a modului în care API-ul în ChatGPT va schimba radical lucrurile.

Dacă sunteți deja familiarizat cu Generative AI și ChatGPT, puteți să treceți la următoarea secțiune și să continuați cu secțiunea care o urmează. Cred că toți ceilalți vor găsi instructive detaliile vitale despre aceste chestiuni citind cu atenție secțiunea și trecând la curent.

O instrucție rapidă despre IA generativă și ChatGPT

ChatGPT este un sistem interactiv AI de uz general, orientat spre conversație, în esență un chatbot general aparent inofensiv, cu toate acestea, este folosit în mod activ și avid de oameni în moduri care îi prind pe mulți complet neprevăzuți, așa cum voi detalia în scurt timp. Această aplicație AI folosește o tehnică și o tehnologie din domeniul AI, care este adesea denumită AI generativă. AI generează rezultate precum text, ceea ce face ChatGPT. Alte aplicații AI bazate pe generații produc imagini precum imagini sau lucrări de artă, în timp ce altele generează fișiere audio sau videoclipuri.

Mă voi concentra pe aplicațiile AI generative bazate pe text în această discuție, deoarece asta face ChatGPT.

Aplicațiile AI generative sunt extrem de ușor de utilizat.

Tot ce trebuie să faceți este să introduceți o solicitare, iar aplicația AI va genera pentru dvs. un eseu care încearcă să răspundă la solicitarea dvs. Textul compus va părea ca și cum eseul a fost scris de mâna și mintea omului. Dacă ar fi să introduceți un mesaj care spune „Spune-mi despre Abraham Lincoln”, IA generativă vă va oferi un eseu despre Lincoln. Aceasta este clasificată în mod obișnuit ca IA generativă care funcționează text-to-text sau unii preferă să o numească text-to-eseu ieșire. După cum am menționat, există și alte moduri de AI generativă, cum ar fi text-to-art și text-to-video.

Primul tău gând ar putea fi că această capacitate generativă nu pare atât de mare în ceea ce privește producerea de eseuri. Puteți face cu ușurință o căutare online pe Internet și puteți găsi cu ușurință tone și tone de eseuri despre președintele Lincoln. Dezactivarea în cazul IA generativă este că eseul generat este relativ unic și oferă o compoziție originală mai degrabă decât o imitație. Dacă ar fi să încercați să găsiți eseul produs de inteligență artificială online undeva, este puțin probabil să îl descoperiți.

IA generativă este pregătită în prealabil și folosește o formulare matematică și computațională complexă care a fost creată prin examinarea tiparelor din cuvintele scrise și poveștile de pe web. Ca rezultat al examinării a mii și milioane de pasaje scrise, AI poate scoate noi eseuri și povești care sunt o mizerie a ceea ce a fost găsit. Adăugând diferite funcționalități probabilistice, textul rezultat este destul de unic în comparație cu ceea ce a fost folosit în setul de antrenament.

De aceea, a existat un scandal despre faptul că studenții pot înșela atunci când scriu eseuri în afara sălii de clasă. Un profesor nu poate să ia pur și simplu eseul despre care elevii înșelător susțin că este propria lor scriere și să caute să afle dacă a fost copiat dintr-o altă sursă online. În general, nu va exista niciun eseu preexistent definitiv online care să se potrivească eseului generat de AI. În cele din urmă, profesorul va trebui să accepte cu reținere că elevul a scris eseul ca pe o lucrare originală.

Există preocupări suplimentare cu privire la IA generativă.

Un dezavantaj esențial este că eseurile produse de o aplicație AI bazată pe generație pot avea încorporate diverse falsuri, inclusiv fapte evident neadevărate, fapte care sunt descrise în mod înșelător și fapte aparente care sunt în întregime fabricate. Aceste aspecte fabricate sunt adesea denumite o formă de halucinații AI, o expresie pe care o dezamăgesc, dar, din păcate, pare să câștige popularitate oricum (pentru explicația mea detaliată despre motivul pentru care aceasta este o terminologie proastă și nepotrivită, consultați acoperirea mea la linkul aici).

Aș dori să clarific un aspect important înainte de a intra în grosimea acestui subiect.

Pe rețelele de socializare au existat câteva afirmații exagerate despre AI generativă afirmând că această ultimă versiune a AI este de fapt AI sensibil (nu, au gresit!). Cei din Etica AI și Legea AI sunt îngrijorați în special de această tendință în plină dezvoltare a revendicărilor extinse. Ai putea spune politicos că unii oameni exagerează ceea ce poate face de fapt IA de astăzi. Ei presupun că AI are capacități pe care încă nu le-am putut realiza. Ce păcat. Mai rău încă, ei își pot permite lor și altora să intre în situații îngrozitoare din cauza presupunerii că IA va fi simțitoare sau asemănătoare omului pentru a putea lua măsuri.

Nu antropomorfizați IA.

Dacă procedați astfel, veți fi prins într-o capcană de încredere lipicioasă și dură de a aștepta ca AI să facă lucruri pe care nu le poate realiza. Acestea fiind spuse, cea mai recentă IA generativă este relativ impresionantă pentru ceea ce poate face. Fiți conștienți de faptul că există limitări semnificative pe care ar trebui să le aveți în vedere în mod continuu atunci când utilizați orice aplicație AI generativă.

Dacă sunteți interesat de agitația care se extinde rapid despre ChatGPT și AI generativ, am făcut o serie concentrată în rubrica mea pe care s-ar putea să o găsiți informativă. Iată o privire în cazul în care vreunul dintre aceste subiecte vă va capta:

  • 1) Predicții ale progreselor generative ale IA. Dacă doriți să știți ce este probabil să se dezvolte despre AI pe parcursul anului 2023 și mai departe, inclusiv progresele viitoare în AI generativă și ChatGPT, veți dori să citiți lista mea cuprinzătoare de predicții pentru 2023 la linkul aici.
  • 2) IA generativă și sfaturi de sănătate mintală. Am ales să analizez modul în care AI generativă și ChatGPT sunt folosite pentru sfaturi de sănătate mintală, o tendință supărătoare, conform analizei mele concentrate la linkul aici.
  • 3) Fundamentele AI generative și ChatGPT. Această lucrare explorează elementele cheie ale modului în care funcționează AI generativă și, în special, se adâncește în aplicația ChatGPT, inclusiv o analiză a zgomotului și a fanfarei, la linkul aici.
  • 4) Tensiunea dintre profesori și studenți față de AI generativă și ChatGPT. Iată modalitățile prin care elevii vor folosi AI generativ și ChatGPT. În plus, iată modalități prin care profesorii pot face față acestui val mare. Vedea linkul aici.
  • 5) Context și utilizare generativă a IA. Am făcut, de asemenea, o examinare ironică cu aromă sezonieră despre un context legat de Moș Crăciun care implică ChatGPT și IA generativă la linkul aici.
  • 6) Escrocii care folosesc AI generativ. Într-o notă de rău augur, unii escroci și-au dat seama cum să folosească IA generativă și ChatGPT pentru a face greșeli, inclusiv generarea de e-mailuri înșelătorii și chiar producerea de coduri de programare pentru malware, vezi analiza mea la linkul aici.
  • 7) Greșeli ale începătorilor folosind IA generativă. Mulți oameni depășesc și subestima în mod surprinzător ceea ce pot face AI generativă și ChatGPT, așa că m-am uitat în special la subestimarea pe care tind să o facă începătorii AI, vezi discuția la linkul aici.
  • 8) A face față îndemnurilor AI generative și halucinațiilor AI. Descriu o abordare de vârf pentru utilizarea suplimentelor AI pentru a face față diferitelor probleme asociate cu încercarea de a introduce solicitări adecvate în AI generativă, plus că există suplimente AI suplimentare pentru detectarea așa-numitelor rezultate halucinate și falsități AI, după cum acoperit la linkul aici.
  • 9) Dezmințirea afirmațiilor Bonehead despre detectarea eseurilor generative produse de IA. Există o goană greșită de aur de aplicații AI care proclamă că pot stabili dacă un anumit eseu a fost produs de oameni versus generat de AI. În general, acest lucru este înșelător și, în unele cazuri, o afirmație nespusă și insuportabilă, consultați acoperirea mea la linkul aici.
  • 10) Jocul de rol prin IA generativă ar putea aduce dezavantaje pentru sănătatea mintală. Unii folosesc AI generativ, cum ar fi ChatGPT, pentru a face jocuri de rol, prin care aplicația AI răspunde unui om ca și cum ar exista într-o lume fantastică sau într-un alt cadru inventat. Acest lucru ar putea avea repercusiuni asupra sănătății mintale, vezi linkul aici.
  • 11) Expunerea intervalului de erori și falsități rezultate. Sunt întocmite diverse liste colectate pentru a încerca să prezinte natura erorilor și falsurilor produse de ChatGPT. Unii cred că acest lucru este esențial, în timp ce alții spun că exercițiul este inutil, vezi analiza mea la linkul aici.
  • 12) Școlile care interzic generative AI ChatGPT le lipsește barca. S-ar putea să știți că diferite școli, cum ar fi Departamentul Educației din New York City (NYC), au declarat interzicerea utilizării ChatGPT în rețeaua și dispozitivele asociate. Deși aceasta ar putea părea o măsură de precauție utilă, nu va mișca acul și, din păcate, ratează complet barca, vezi acoperirea mea la linkul aici.

S-ar putea să găsiți interesant faptul că ChatGPT se bazează pe o versiune a unei aplicații AI predecesoare, cunoscută sub numele de GPT-3. ChatGPT este considerat a fi un pas ușor următor, denumit GPT-3.5. Se anticipează că GPT-4 va fi lansat probabil în primăvara lui 2023. Probabil, GPT-4 va fi un pas impresionant înainte în ceea ce privește capacitatea de a produce eseuri aparent și mai fluente, de a merge mai profund și de a fi uimitor. -mirație inspiratoare în ceea ce privește compozițiile pe care le poate produce.

Vă puteți aștepta să vedeți o nouă rundă de uimire exprimată când vine primăvara și va fi lansat cea mai recentă IA generativă.

Aduc în discuție acest lucru deoarece există un alt unghi de reținut, constând într-un potențial călcâi lui Ahile pentru aceste aplicații AI generative mai bune și mai mari. Dacă vreun furnizor de AI pune la dispoziție o aplicație AI generativă care aruncă spumos, acest lucru ar putea zdrobi speranțele acelor producători de AI. O depășire a societății poate face ca toată IA generativă să capete un ochi negru. Oamenii vor fi, fără îndoială, destul de supărați de rezultatele greșite, care s-au întâmplat deja de multe ori și au dus la reacții zgomotoase de condamnare a societății la adresa AI.

O ultimă avertizare deocamdată.

Indiferent ce vedeți sau citiți într-un răspuns AI generativ, asta pare pentru a fi transmis ca fiind pur faptice (date, locuri, oameni etc.), asigurați-vă că rămâneți sceptici și sunteți dispus să verificați din nou ceea ce vedeți.

Da, datele pot fi inventate, locurile pot fi inventate, iar elementele la care de obicei ne așteptăm să fie fără reproș sunt toate supus suspiciunilor. Nu credeți ceea ce citiți și păstrați un ochi sceptic atunci când examinați eseuri sau rezultate generative de AI. Dacă o aplicație AI generativă îți spune că Abraham Lincoln a zburat prin țară cu propriul său avion privat, ai ști, fără îndoială, că acest lucru este malarky. Din păcate, unii oameni s-ar putea să nu realizeze că avioanele cu avioane nu existau pe vremea lui sau s-ar putea să știe, dar să nu observe că eseul face această afirmație nespusă și scandalos de falsă.

O doză puternică de scepticism sănătos și o mentalitate persistentă de neîncredere vor fi cel mai bun atu al tău atunci când folosești IA generativă.

Suntem gata să trecem la următoarea etapă a acestei elucidări.

Dezlănțuirea Bestiei

Acum că avem bazele stabilite, ne putem scufunda în repercusiunile orientate spre afaceri și societății datorate aspectelor API-ului ChatGPT.

Un anunț a fost făcut recent de Microsoft în colaborare cu OpenAI despre disponibilitatea viitoare a ChatGPT pe platforma Azure cloud a Microsoft (pe postare online intitulată „Disponibilitatea generală a serviciului Azure OpenAI extinde accesul la modele AI mari și avansate cu beneficii adăugate pentru întreprinderi”, 16 ianuarie 2023):

  • „Modelele lingvistice mari devin rapid o platformă esențială pentru ca oamenii să inoveze, să aplice AI pentru a rezolva probleme mari și să-și imagineze ce este posibil. Astăzi, suntem încântați să anunțăm disponibilitatea generală a serviciului Azure OpenAI, ca parte a angajamentului continuu al Microsoft pentru democratizarea AI și a parteneriatului permanent cu OpenAI. Cu Azure OpenAI Service acum disponibil în general, mai multe companii pot solicita acces la cele mai avansate modele AI din lume, inclusiv GPT-3.5, Codex și DALL•E 2, susținute de capabilitățile de încredere de nivel enterprise și infrastructura optimizată pentru AI. Microsoft Azure, pentru a crea aplicații de ultimă oră. Clienții vor putea, de asemenea, să acceseze ChatGPT — o versiune ajustată a GPT-3.5 care a fost instruită și care rulează inferențe asupra infrastructurii Azure AI — prin serviciul Azure OpenAI în curând.”

S-ar putea să fi observat în acea declarație că și alte diverse aplicații AI care au fost concepute de OpenAI vor fi disponibile. Într-adevăr, unele dintre aceste aplicații AI au fost deja accesibile de ceva timp, așa cum se menționează în continuare în declarația recentă de mai sus: „Am debutat Azure OpenAI Service în noiembrie 2021 pentru a le permite clienților să profite de puterea modelelor AI generative la scară largă cu întreprinderea promite că clienții au ajuns să se aștepte de la infrastructura noastră de calcul și cloud Azure – securitate, fiabilitate, conformitate, confidențialitatea datelor și capabilități încorporate de IA responsabilă” (ibid).

Am menționat mai devreme că atât Etica AI, cât și Legea AI încearcă să echilibreze AI pentru bine aspiratii cu potential AI pentru rău care poate apărea uneori. În tărâmul AI, există o mișcare spre a avea AI responsabilă sau, uneori, inventat ca AI de încredere sau AI centrat pe om, vezi acoperirea mea la linkul aici. Toți producătorii de AI sunt îndemnați să elaboreze și să își orienteze AI AI pentru bine și să caute în mod deschis să reducă sau să atenueze orice AI pentru rău care ar putea apărea.

Aceasta este o comandă grea.

În orice caz, declarația menționată mai sus a abordat considerentele AI responsabile:

  • „În calitate de lider în industrie, recunoaștem că orice inovație în IA trebuie făcută în mod responsabil. Acest lucru devine și mai important cu tehnologii puternice și noi, cum ar fi modelele generative. Am adoptat o abordare iterativă a modelelor mari, lucrând îndeaproape cu partenerul nostru OpenAI și clienții noștri pentru a evalua cu atenție cazurile de utilizare, a învăța și a aborda riscurile potențiale. În plus, am implementat propriile noastre balustrade pentru Azure OpenAI Service, care se aliniază cu principiile noastre de IA responsabilă. Ca parte a cadrului nostru de acces limitat, dezvoltatorilor li se cere să solicite acces, descriindu-și cazul de utilizare sau aplicația prevăzută înainte de a li se acorda acces la serviciu. Filtrele de conținut concepute unic pentru a prinde conținut abuziv, plin de ură și ofensator monitorizează în mod constant contribuția furnizată serviciului, precum și conținutul generat. În cazul unei încălcări confirmate a politicii, este posibil să cerem dezvoltatorului să ia măsuri imediate pentru a preveni alte abuzuri” (ibid).

Cheia acestei perspective AI responsabilă este că, prin solicitarea unei cereri oficiale de acces la ChatGPT pe baza API-ului de program, există șansa de a elimina trimiterile neplăcute. Dacă există o diligență adecvată în alegerea celorlalte firme și programele lor care pot accesa ChatGPT, poate că există o șansă de luptă de a preveni mânia deplină a unui Kraken eliberat.

Poate da poate nu.

Unii experți își strâng mâinile că posibilitățile de a face bani de a permite API-ului ChatGPT să fie pus în funcțiune vor încorda noțiunea de contrabalansare a dorinței de a menține fiara în mod rezonabil și în siguranță. Va fi într-adevăr controlul suficient de atent în avans? Am putea vedea, în schimb, că are loc un proces de aprobare vag, năuci, pe măsură ce volumul cererilor scapă de sub control? Unii se tem că doar odată ce pisica iese din sac poate avea loc cu adevărat un control mai complet și întârziat, deși până atunci daunele vor fi deja făcute.

Ei bine, puteți măcar să acordați creditul cuvenit că este implicat un proces de verificare. Există unele aplicații AI generative cărora fie le lipsește un proces de verificare coerent, fie sunt de natură superficială. În plus, există versiuni open-source ale AI generative care, în general, pot fi folosite de aproape oricine dorește să facă acest lucru, deși se presupune că trebuie respectate anumite restricții minime de licențiere (încercarea de a impune acest lucru este mai dificilă decât ar părea).

Să aruncăm o privire rapidă asupra regulilor existente privind limitarea accesului la serviciul Azure OpenAI pentru a vedea ce vor trebui să facă alți producători de software pentru a se putea conecta la ChatGPT. Conform politicilor Microsoft publicate online (cea mai recentă postare indicată ca 14 decembrie 2022):

  • „Ca parte a angajamentului Microsoft față de IA responsabilă, proiectăm și lansăm Azure OpenAI Service cu intenția de a proteja drepturile persoanelor și ale societății și de a promova interacțiunea transparentă om-calculator. Din acest motiv, limităm în prezent accesul și utilizarea Azure OpenAI, inclusiv limitarea accesului la capacitatea de a modifica filtrele de conținut și de a modifica monitorizarea abuzurilor. Azure OpenAI necesită înregistrare și este în prezent disponibil numai pentru clienții gestionați și partenerii care lucrează cu echipele de conturi Microsoft. Clienții care doresc să utilizeze Azure OpenAI trebuie să trimită un formular de înregistrare atât pentru accesul inițial pentru experimentare, cât și pentru aprobarea trecerii de la experimentare la producție.”
  • „Pentru experimentare, clienții atestă că folosesc serviciul numai pentru utilizările preconizate prezentate în momentul înregistrării și se angajează să încorporeze supravegherea umană, limite tehnice puternice privind intrările și ieșirile, canalele de feedback și testarea amănunțită. Pentru producție, clienții explică modul în care acestea au fost implementate pentru a reduce riscul. Clienții care doresc să modifice filtrele de conținut și să modifice monitorizarea abuzurilor după ce s-au încorporat la serviciu sunt supuși unor restricții suplimentare pentru scenarii și trebuie să se înregistreze aici.”
  • „Accesul la Serviciul Azure OpenAI este supus la discreția exclusivă a Microsoft, pe baza criteriilor de eligibilitate și a unui proces de verificare, iar clienții trebuie să recunoască că au examinat și sunt de acord cu termenii și condițiile Azure pentru Serviciul Azure OpenAI. Microsoft poate solicita clienților să verifice din nou aceste informații. Serviciul Azure OpenAI este pus la dispoziția clienților conform condițiilor care reglementează abonamentul la Serviciile Microsoft Azure, inclusiv secțiunea Azure OpenAI din Termenii produselor Microsoft. Vă rugăm să examinați cu atenție acești termeni, deoarece conțin condiții și obligații importante care guvernează utilizarea serviciului Azure OpenAI.”

Asta este din partea Microsoft a lucrurilor.

OpenAI are și politicile sale de utilizare asociate cu API-ul său:

  • „Vrem ca toată lumea să poată folosi API-ul nostru în siguranță și în mod responsabil. În acest scop, am creat politici privind cazurile de utilizare și conținutul. Urmându-le, ne veți ajuta să ne asigurăm că tehnologia noastră este folosită pentru totdeauna. Dacă descoperim că produsul dvs. nu respectă aceste politici, vă vom cere să faceți modificările necesare. Dacă nu vă conformați, este posibil să luăm măsuri suplimentare, inclusiv să vă închidem contul.”
  • „Interzicem construirea de produse care vizează următoarele cazuri de utilizare:”
  • „— Industrii ilegale sau dăunătoare”
  • „— Utilizarea greșită a datelor cu caracter personal”
  • „— Promovarea necinstei”
  • „— Înșelarea sau manipularea utilizatorilor”
  • „— Încercarea de a influența politica”
  • „Următorul set de cazuri de utilizare implică un risc mai mare de vătămare potențială: justiție penală, aplicarea legii, servicii juridice, guvernamentale și civile, asistență medicală, terapie, wellness, coaching, finanțe, știri. Pentru aceste cazuri de utilizare, trebuie să:”
  • „1) Testați cu atenție modelele noastre pentru acuratețea în cazul dvs. de utilizare și fiți transparent cu utilizatorii în ceea ce privește limitările”
  • „2) Asigurați-vă că echipa dumneavoastră are expertiză în domeniu și înțelege/respectează legile relevante”
  • „De asemenea, nu vă permitem dvs. sau utilizatorilor finali ai aplicației dumneavoastră să generați următoarele tipuri de conținut:”
  • "- Ură"
  • „— Hărțuire”
  • „— Violență”
  • "- Autoagresiune"
  • „— Sexual”
  • "- Politic"
  • "- Spam"
  • „— Înșelăciune”
  • „— Malware”

O mare întrebare va fi dacă aceste idealuri pot fi observate dacă există o grămadă ferventă de solicitări de conectare cu ChatGPT. Poate că va fi un tsunami copleșitor de cereri. Munca umană pentru examinarea și examinarea atentă a fiecăruia poate fi costisitoare și dificil de gestionat. Dorința de a fi suficient de restrictiv va fi diluată, din neatenție, în fața cererii imense de acces?

După cum spune faimosul duh, cele mai bune planuri pot fi uneori despărțite la primul contact cu forțe abundente.

Există, de asemenea, o mare marjă de manevră în modul de interpretare a regulilor declarate. După cum am văzut în general despre creșterea dezinformarii și dezinformării, încercarea de a separa grâul de pleavă poate fi destul de dificilă. Cum se poate determina dacă conținutul generat respectă sau încalcă prevederile de a nu fi odios, politic, înșelător și altele asemenea?

O dificultate care se profilează ar putea fi că, dacă API-ul ChatGPT este pus la dispoziția unui producător de software care își asociază programul cu ChatGPT, iar rezultatul rezultat încalcă fără ambiguitate preceptele menționate, va fi calul deja afară din hambar? Unii sugerează că există o mare posibilitate de prejudiciu reputațional care poate fi suferit tuturor părților implicate. Nu este clar dacă acest lucru poate fi depășit prin simpla dezactivare a API-ului pentru acel infractor. Pagubele, într-un fel, ar putea persista și strica butoiul. O mulțime de vină vor fi aduse tuturor celor veniți.

Stratificarea perechilor API

Am observat mai devreme că împerecherile cu ChatGPT pot fi grupate convenabil în două intenții majore:

  • Asociere autentică cu ChatGPT
  • Asociere falsă cu ChatGPT

Să examinăm mai întâi perechile autentice sau de bună-credință.

Ca fundal, modul în care se întâmplă acest lucru este oarecum simplu. Aplicația ChatGPT permite altor programe să invoce aplicația. În mod obișnuit, acesta ar consta dintr-un program pe care îl vom numi Widget, care transmite ChatGPT un prompt în format text, iar apoi, după ce ChatGPT își face treaba, un eseu sau text este returnat programului Widget. Este aproape ca și cum o persoană face același lucru, deși vom avea un program să facă acele acțiuni în locul unei persoane să facă acest lucru.

De exemplu, să presupunem că cineva creează un program care efectuează căutări pe web. Programul întreabă un utilizator ce vrea să caute. Programul oferă apoi utilizatorului o listă cu diferite rezultate de căutare sau găsiri care, sperăm, să prezinte site-uri web relevante pe baza interogării utilizatorului.

Imaginați-vă că firma care produce acest program de căutare pe web vrea să-și îmbunătățească aplicația.

Ei solicită acces la API-ul ChatGPT. Să presupunem că fac toate documentele adecvate și, în cele din urmă, sunt aprobate. Programul lor care efectuează căutări pe web ar trebui apoi modificat pentru a include un apel către aplicația ChatGPT prin API. Să presupunem că aleg să facă acele modificări.

Iată cum ar putea apoi să funcționeze complet. Când un utilizator introduce o interogare pentru o căutare web în programul de bază, acest program nu numai că face o căutare convențională pe web, dar transmite și interogarea către ChatGPT prin API. ChatGPT procesează apoi textul și returnează un eseu rezultat în programul de bază. Programul de bază de căutare pe web prezintă acum utilizatorului două fațete, și anume rezultatele căutării pe web și eseul suplimentar produs de ChatGPT.

O persoană care utilizează acest program de bază nu va ști neapărat că ChatGPT a fost folosit pe backend. Se poate întâmpla în limitele programului de bază, iar utilizatorul nu știe din plin că ChatGPT a fost implicat. Pe de altă parte, programul de bază ar putea fi conceput pentru a informa utilizatorul că ChatGPT este utilizat. Acest lucru depinde de obicei de dacă creatorii programului de bază doresc să dezvăluie că cealaltă aplicație, în acest caz, ChatGPT, a fost utilizată. În unele aranjamente, producătorul programului invocat insistă că programul care invocă API trebuie să informeze utilizatorii că celălalt program este utilizat. Totul depinde de preferințe și detalii de licență.

Pentru perechile autentice, iată abordările obișnuite:

  • 1) Trecere directă către ChatGPT
  • 2) Supliment pentru a spori ChatGPT
  • 3) Aplicația Allied care coincide cu ChatGPT
  • 4) Imersiune complet integrativă cu ChatGPT

Pe scurt, în prima abordare enumerată, ideea este că aș putea concepe un program care este doar o interfață pentru ChatGPT și, ca atare, tot ceea ce face programul meu este să transmită textul către ChatGPT și să primească textul înapoi de la ChatGPT. Pun programul meu disponibil pentru oricine dorește să folosească ChatGPT și care altfel nu s-a înscris să-l folosească. Aceasta este o abordare.

În al doilea rând, aș putea concepe un program care să servească drept supliment pentru ChatGPT. De exemplu, atunci când ChatGPT generează un eseu, acesta poate conține falsități. Să presupunem că creez un program care examinează rezultatul ChatGPT și încearcă să verifice falsități. Îmi fac programul disponibil astfel încât oamenii să introducă o solicitare text în programul meu, care apoi trimite solicitarea către ChatGPT. ChatGPT produce un eseu care revine la programul meu. Înainte ca programul meu să vă arate eseul, acesta îl prealează și încearcă să semnalizeze sau să elimine falsurile. Veți vedea apoi eseul rezultat după ce programul meu a făcut screening-ul.

A treia abordare constă în a avea o aplicație aliată care coincide în sens cu ChatGPT. Să presupunem că dezvolt un program care îi ajută pe oameni să scrie creativă. Programul meu oferă sfaturi și sugestii predefinite despre cum să scrii creativ. Programul doar îndeamnă sau stimulează utilizatorul să facă acest lucru. Între timp, ceea ce aș dori să pot face este să arăt utilizatorului în ce constă scrierea creativă. Ca atare, stabilesc un API cu ChatGPT. Programul meu primește apoi o solicitare de la utilizator și invocă ChatGPT pentru a oferi o imagine a unui eseu care ar putea demonstra scrierea creativă. Acest lucru se poate face iterativ și poate invoca ChatGPT de mai multe ori în timpul procesului.

În cazul celei de-a patra abordări enumerate, ChatGPT este complet integrat într-un alt program sau set de programe. De exemplu, dacă aș avea o aplicație de procesare a textului și o aplicație pentru foi de calcul, aș dori să integrez ChatGPT în acele aplicații. Într-un fel, ar funcționa mână în mână unul cu celălalt. Voi acoperi într-o coloană viitoare care va posta posibilitatea ca Microsoft să opteze pentru a infuza ChatGPT în suita lor de productivitate de birou, așa că fiți atenți la analiza viitoare.

Acestea sunt, atunci, căile cheie prin care ar putea avea loc o pereche autentică.

În continuare, să luăm în considerare unele dintre perechile false.

Iată câteva perechi generale false la care ar trebui să fii atent:

  • Asociere Gimmickry cu ChatGPT – utilizează marginal ChatGPT, realizat în principal pentru spectacol și pentru a obține publicitate fără valoare adăugată
  • Promisiuni atrăgătoare despre împerecherea ChatGPT – furnizorul de software susține că se află în mijlocul asocierii cu ChatGPT, căutând să fie în centrul atenției, când realitatea este că nu vor face acest lucru și fac un fals clasic de cap și fac un angajament fals
  • Knockoffs proclamând a fi ChatGPT-like – mai degrabă decât să se asocieze cu ChatGPT, unii furnizori de software vor folosi altceva, ceea ce este în regulă, dar vor încerca să sugereze că este ChatGPT atunci când nu este, sperând să obțină unele dintre strălucirile ChatGPT
  • Altele – sunt de imaginat o mulțime de scheme suplimentare întinse și connivante

Fără îndoială, vor exista o mulțime de șmecherie despre toate acestea. Va fi parte integrantă a eliberării Krakenului.

Concluzie

Permiteți-mi să arunc niște chei și alte obstacole în această chestiune.

Dar costul?

În prezent, cei care s-au înscris pentru a folosi ChatGPT o fac gratuit. Am remarcat anterior că la un moment dat va trebui să fie implicată o monetizare totală. Acest lucru ar putea presupune plata unei taxe pe tranzacție sau poate achitarea unui abonament. O altă posibilitate este ca reclamele să fie folosite pentru a aduce aluatul, prin care de fiecare dată când utilizați ChatGPT va apărea un anunț. etc.

Cei care aleg să stabilească o asociere cu ChatGPT prin intermediul API-ului ar trebui să se gândească serios la costurile potențiale implicate. Există probabil un cost legat de utilizarea cloud-ului Microsoft Azure pentru rularea aplicației ChatGPT. Este neapărat să existe un cost de la OpenAI pentru a utiliza API-ul ChatGPT și a invoca aplicația AI. Un furnizor de software va suporta și propriile costuri interne, cum ar fi modificarea programelor existente pentru a utiliza API-ul sau dezvoltarea de noi programe în jurul asocierii cu ChatGPT. Imaginați-vă atât un cost de pornire, cât și un set de costuri de întreținere continuă.

Esența este că această stratificare a costurilor va modera într-o oarecare măsură goana aurului către valorificarea API-ului ChatGPT. Furnizorii de software ar trebui să facă un calcul prudent al ROI (rentabilitatea investiției). Tot ceea ce pot face prin creșterea programului lor prin utilizarea ChatGPT va aduce suficienți bani suplimentari pentru a compensa costurile?

Nu toată lumea va fi neapărat atât de conștientă de costuri. Dacă aveți buzunare adânci și credeți că utilizarea ChatGPT vă va propulsa programul în cel mai cunoscut sau foarte recunoscut domeniu al aplicațiilor, ați putea decide că costul acum merită. Creați un nume pentru aplicația dvs. mergând pe coada ChatGPT. Pe drum, odată ce programul tău este popular sau câștigi bani în alt mod, fie compensați lipsa de profit anterioară, fie îl anulați ca costuri necesare pentru a intra în mare.

Un mic startup susținut de o firmă de capital de risc (VC) ar putea fi dispus să dea o parte din investiția sa de bază pentru a se asocia cu API-ul ChatGPT. Faima ar putea apărea instantaneu. Averea ar putea fi un drum lung, dar asta e ceva de rezolvat mai târziu. Luați lumina reflectoarelor când obținerea este bună, așa cum se spune.

Se presupune că ar putea exista organizații non-profit și întreprinderi sociale care vor decide să dea și ele cauciucurile. Să presupunem că o firmă non-profit identifică o utilizare benefică a invocării API-ului ChatGPT, care aparent le va sprijini obiectivele altruiste sau benefice pentru societate. Poate că strâng fonduri pentru asta printr-o campanie de finanțare online. Poate că încearcă să încheie o înțelegere cu vânzătorii, astfel încât să plătească o sumă nominală sau să obțină utilizarea gratuită.

Timpul va spune.

Ultimul indiciu cu care vă voi lăsa este factorul de risc.

Nu vreau să par nejustificat, dar am menționat mai devreme că rezultatele de la ChatGPT pot conține falsități și pot avea alte dezavantaje potențiale. Ideea este că, dacă un furnizor de software care creează o aplicație se amestecă în utilizarea API-ului ChatGPT, riscă să aibă rezultate dure și dure, pe care ar trebui să le anticipeze. Nu baga capul in nisip.

Apar probleme că acele rezultate ar putea afecta aplicația care optează pentru a le utiliza. În acest sens, aplicația dvs., care la început călătorește pe gloria ChatGPT, ar putea ajunge, de asemenea, să se prăbușească într-un zid de cărămidă dacă se bazează pe rezultatele furnizate prin ChatGPT. Poate că rezultatele sunt prezentate utilizatorilor și acest lucru provoacă un zgomot îngrozitor. Își elimină neliniștea asupra ta și a aplicației tale.

La rândul tău, încerci să arăți cu degetul către ChatGPT. Te va scoate asta din enigmă? Odată ce există o miros, aceasta pătrunde pe scară largă și puțini sunt cruțați. În acest sens, s-ar putea ca, printr-o utilizare extinsă a ChatGPT, conștientizarea rezultatelor greșite să devină mai frecvent cunoscută. Astfel, în mod ciudat, sau în mod ironic, utilizarea extinsă a ChatGPT datorită API-ului ar putea să-și tragă piciorul.

Nu vreau să-mi închei remarcile cu o față tristă, așa că hai să încercăm să trecem la o față fericită.

Dacă toate limitele și constrângerile aspiraționale sunt urmate și respectate cu atenție și judiciu și riguros, accesarea ChatGPT prin intermediul API-ului poate fi un lucru bun. Sunt prea șanse ca acest lucru să stimuleze și mai mult alte aplicații AI generative în acțiune. Fluxul în creștere ar putea ridica toate bărcile.

Asta pare optimist.

S-ar putea să știi că se spunea că Zeus deține controlul asupra Krakenului. Sofocle, dramaturgul grec antic, a spus asta despre Zeus: „Zarurile lui Zeus cad mereu din fericire”.

Poate că același lucru se va spune despre modul în care IA generativă va ateriza inevitabil, să sperăm cel puțin.

Sursa: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- deschis-stupefiant-ai-etica-si-legea-ai/