Generative AI ChatGPT vă poate înghiți în mod tulburător datele private și confidențiale, avertizează etica AI și legea AI

Acum vă vedeți datele, acum nu.

Între timp, datele dumneavoastră prețioase au devenit parte a colectivului, așa cum ar fi.

Mă refer la un aspect care ar putea fi destul de surprinzător pentru cei dintre voi care folosesc cu nerăbdare și seriozitate cele mai noi știri din Inteligența Artificială (AI). Datele pe care le introduceți într-o aplicație AI nu sunt potențial deloc private pentru dvs. și numai pentru dvs. S-ar putea ca datele dvs. să fie utilizate de către producătorul AI pentru a căuta probabil să-și îmbunătățească serviciile de AI sau ar putea fi utilizate de către aceștia și/sau chiar partenerii aliați pentru o varietate de scopuri.

Acum ai fost prevenit.

Această predare a datelor dvs. are loc în cele mai inofensive moduri și, potențial, de mii sau de ordinul a milioane de oameni. Cum așa? Există un tip de inteligență artificială cunoscut sub numele de inteligență artificială generativă care a strâns recent titluri importante și a atras atenția publicului larg. Cea mai notabilă dintre aplicațiile AI generative existente este una numită ChatGPT, care este concepută de firma OpenAI.

Se presupune că există aproximativ un milion de utilizatori înregistrați pentru ChatGPT. Mulți dintre acești utilizatori par să fie încântați să încerce această aplicație AI cea mai tare și cea mai recentă generativă. Procesul este extraordinar de simplu. Introduceți un text ca un prompt și voila, aplicația ChatGPT generează o ieșire de text care este de obicei sub forma unui eseu. Unii se referă la asta ca text-to-text, deși prefer să-l notez text-to-essay, deoarece această verbiaj are mai mult sens de zi cu zi.

La început, un utilizator începător va introduce probabil ceva distractiv și fără griji. Spune-mi despre viața și vremurile lui George Washington, cineva ar putea intra ca un prompt. ChatGPT ar produce apoi un eseu despre primul nostru președinte legendar. Eseul ar fi în întregime fluent și ați fi greu să discerneți că a fost produs de o aplicație AI. Un lucru interesant de văzut se întâmplă.

Şansele sunt că, după ce s-au jucat un timp, un segment de utilizatori începători să se fi saturat și să opteze potențial să nu se mai joace cu ChatGPT. Acum și-au depășit FOMO (frica de a pierde), făcând acest lucru după ce au experimentat cu aplicația AI despre care aproape toată lumea pare să vorbească. Fapta facuta.

Unii, totuși, vor începe să se gândească la alte modalități și mai serioase de a folosi AI generativă.

Poate folosiți ChatGPT pentru a scrie nota pe care șeful dvs. v-a cerut să-l scrieți. Tot ce trebuie să faceți este să oferiți un prompt cu punctele marcante pe care le aveți în vedere, iar următorul lucru pe care îl cunoașteți a fost generat de ChatGPT un memoriu întreg care l-ar face pe șeful dvs. mândru de tine. Copiați eseul rezultat din ChatGPT, îl lipiți în șablonul oficial al companiei în pachetul dvs. de procesare de text și trimiteți prin e-mail managerul dumneavoastră memoriul elegant. Valoriți un milion de dolari. Și ți-ai folosit creierul pentru a găsi un instrument la îndemână pentru a face munca grea pentru tine. bate-te pe spate.

Asta nu e tot.

Da, mai sunt.

Rețineți că IA generativă poate îndeplini o serie de alte sarcini legate de scriere.

De exemplu, să presupunem că ați scris o narațiune de vreun fel pentru un client apreciat și doriți cu drag să faceți o revizuire a materialului înainte de a ieși pe ușă.

Easy-peasy.

Lipiți textul narațiunii dvs. într-un prompt ChatGPT și apoi instruiți ChatGPT să analizeze textul pe care l-ați compus. Eseul rezultat ar putea săpa în profunzime formularea ta și, spre plăcuta ta surpriză, va încerca să inspecteze aparent sensul a ceea ce ai spus (mergând cu mult dincolo de a acționa ca un verificator ortografic sau un analizator gramatical). Aplicația AI ar putea detecta greșeli în logica narațiunii tale sau ar putea descoperi contradicții despre care nu ți-ai dat seama că sunt în scrisul tău. Este aproape ca și cum ați angajat un editor uman viclean pentru a vă urmări proiectul și a oferi o serie de sugestii utile și preocupări notate (ei bine, vreau să declar categoric că nu încerc să antropomorfizez aplicația AI, în special că un editor uman este un om în timp ce aplicația AI este doar un program de calculator).

Slavă Domnului că ai folosit aplicația AI generativă pentru a-ți examina prețioasa poveste scrisă. Fără îndoială, ați prefera ca AI să găsească acele probleme scrise neliniştitoare decât după trimiterea documentului către clientul dvs. apreciat. Imaginează-ți că ai compus narațiunea pentru cineva care te-a angajat să creeze o descriere destul de vitală. Dacă ați fi dat versiunea originală clientului, înainte de a face revizuirea aplicației AI, ați putea suferi o mare jenă. Aproape sigur clientul ar avea îndoieli serioase cu privire la abilitățile dumneavoastră de a face munca solicitată.

Să creștem ante.

Luați în considerare crearea de documente legale. Este evident o chestiune deosebit de serioasă. Cuvintele și modul în care sunt compuse pot semnifica o apărare juridică plină de spirit sau o calamitate juridică tristă.

În cercetarea și consultanța mea continuă, interacționez în mod regulat cu o mulțime de avocați care sunt profund interesați de utilizarea inteligenței artificiale în domeniul dreptului. Diverse programe LegalTech se conectează la capabilitățile AI. Un avocat poate folosi IA generativă pentru a redacta un proiect al unui contract sau pentru a alcătui alte documente legale. În plus, dacă avocatul a făcut ei înșiși o schiță inițială, poate transmite textul unei aplicații AI generative, cum ar fi ChatGPT, pentru a arunca o privire și a vedea ce găuri sau lacune ar putea fi detectate. Pentru mai multe despre modul în care avocații și domeniul juridic aleg să folosească AI, vedeți discuția mea la linkul aici.

Suntem gata, totuși, pentru problema asta.

Un avocat preia un contract redactat și copiază textul într-un prompt pentru ChatGPT. Aplicația AI produce o recenzie pentru avocat. Se pare că ChatGPT găsește mai multe probleme. Avocatul revizuiește contractul. De asemenea, ar putea cere ChatGPT să le sugereze o reformulare sau refacere a textului compus. O versiune nouă și mai bună a contractului este apoi produsă de aplicația AI generativă. Avocatul preia textul ieșit și îl plasează într-un fișier de procesare de text. În afara misivei, clientul lor. Misiune indeplinita.

Poți ghici ce tocmai s-a întâmplat?

În culise și sub capotă, contractul ar fi putut fi înghițit ca un pește în gura unei balene. Deși acest avocat care folosește AI ar putea să nu-și dea seama, textul contractului, așa cum este plasat ca un prompt în ChatGPT, ar putea fi înghițit de aplicația AI. Acum este hrană pentru potrivirea modelelor și alte complexități de calcul ale aplicației AI. Aceasta, la rândul său, ar putea fi folosită într-o varietate de moduri. Dacă există date confidențiale în proiect, și acestea pot fi acum în limitele ChatGPT. Solicitarea dvs., așa cum este furnizată aplicației AI, este acum aparent o parte a colectivului într-un mod sau altul.

În plus, eseul produs este, de asemenea, considerat parte a colectivului. Dacă ați solicitat ChatGPT să modifice schița pentru dvs. și să prezinte noua versiune a contractului, acesta este interpretat ca un eseu trimis. Ieșirile ChatGPT sunt, de asemenea, un tip de conținut care poate fi reținut sau transformat în alt mod de aplicația AI.

Da, s-ar putea să fi dat în mod nevinovat informații private sau confidențiale. Nu e bine. În plus, nici nu ai fi conștient că ai făcut asta. Nu au fost ridicate steaguri. Un corn nu a sunat. Nicio lumină intermitentă nu s-a stins să te șocheze în realitate.

Am putea anticipa că cei care nu sunt avocați ar putea face cu ușurință o astfel de greșeală, dar pentru un avocat experimentat să facă aceeași greșeală de începător este aproape de neimaginat. Cu toate acestea, există probabil profesioniști din domeniul juridic chiar acum să facă aceeași potențială gafă. Ei riscă să încalce un element demn de remarcat al privilegiului avocat-client și posibil să încalce Regulile model de conduită profesională (MRPC) ale Asociației Baroului American (ABA). În special: „Avocatul nu trebuie să dezvăluie informații referitoare la reprezentarea unui client decât dacă clientul își dă consimțământul în cunoștință de cauză, dezvăluirea este autorizată în mod implicit pentru a efectua reprezentarea sau dezvăluirea este permisă de paragraful (b)” (citat din MRPC și pentru care excepțiile asociate subsecțiunii b nu ar părea să cuprindă utilizarea unei aplicații AI generative într-un mod nesecurizat).

Unii avocați ar putea căuta să-și scuze transgresiunea susținând că nu sunt vrăjitori ai tehnologiei și că nu ar fi avut mijloace pregătite să știe că introducerea de informații confidențiale într-o aplicație AI generativă ar putea fi cumva o încălcare. ABA a precizat că o obligație a avocaților presupune să fie la curent cu inteligența artificială și tehnologie din perspectivă juridică: „Pentru a menține cunoștințele și abilitățile necesare, un avocat ar trebui să fie la curent cu schimbările din legislație și practica acesteia, inclusiv beneficiile și riscurile asociate cu tehnologia relevantă, să se angajeze în studii și educații continue și să respecte toate cerințele de educație juridică continuă la care este supus avocatul” (conform MRPC).

Mai multe prevederi intră în această aparență de obligație legală, inclusiv menținerea informațiilor confidențiale ale clientului (Regula 1.6), protejarea proprietății clientului, cum ar fi datele (Regula 1.15), comunicarea corectă cu un client (Regula 1.4), obținerea consimțământului informat al clientului (Regula 1.6), și asigurarea unei reprezentări competente în numele unui client (Regula 1.1). Și mai există și puțin cunoscuta, dar foarte notabilă rezoluție axată pe inteligență artificială adoptată de ABA: „Asociația Baroului American îndeamnă instanțele și avocații să abordeze problemele etice și juridice emergente legate de utilizarea inteligenței artificiale („AI”). în practica dreptului, inclusiv: (1) părtinire, explicabilitate și transparență a deciziilor automate luate de AI; (2) utilizarea etică și benefică a IA; și (3) controlul și supravegherea AI și a furnizorilor care furnizează AI.”

Cuvinte către înțelepți pentru prietenii și colegii mei legali.

Esența problemei este că aproape oricine poate intra într-un blocaj atunci când folosește IA generativă. Neavocații pot face acest lucru prin presupusa lipsă de perspicacitate juridică. Avocații pot face și ei acest lucru, poate îndrăgostiți de IA sau nu respiră adânc și reflectând asupra repercusiunilor legale care pot apărea atunci când folosesc IA generativă.

Suntem cu toții potențial în aceeași barcă.

De asemenea, ar trebui să realizați că ChatGPT nu este singura aplicație AI generativă din bloc. Există și alte aplicații AI generative pe care le puteți folosi. Și ele sunt probabil tăiate din aceeași cârpă, și anume că intrările pe care le introduceți ca solicitări și ieșirile pe care le primiți ca eseuri generate sunt considerate parte a colectivului și pot fi utilizate de către producătorul AI.

În coloana de astăzi, voi dezvălui natura modului în care datele pe care le introduceți și datele pe care le primiți de la IA generativă pot fi potențial compromise în ceea ce privește confidențialitatea și confidențialitatea. Producătorii AI își pun la dispoziție cerințele de licențiere și ar fi înțelept să citiți aceste prevederi vitale înainte de a începe să utilizați în mod activ o aplicație AI cu orice aparență de date reale. Vă voi prezenta un exemplu de astfel de licențiere, făcând acest lucru pentru aplicația ChatGPT AI.

În toate acestea se regăsesc o mulțime de considerente de etică AI și de legislație AI.

Vă rugăm să fiți conștienți de faptul că există eforturi în desfășurare pentru a introduce principiile AI etice în dezvoltarea și implementarea aplicațiilor AI. Un contingent tot mai mare de eticieni ai inteligenței artificiale îngrijorați și de altădată încearcă să se asigure că eforturile de a concepe și adopta IA țin cont de viziunea de a face AI pentru bine si evitarea AI pentru rău. De asemenea, există noi legi propuse pentru AI, care sunt puse în discuție ca potențiale soluții pentru a împiedica eforturile AI să devină dezmembrate cu privire la drepturile omului și altele asemenea. Pentru acoperirea mea continuă și extinsă a eticii AI și a legii AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Există nuanțe și prevederi semnificative ale AI etice asociate cu modul în care creatorii de AI pot sau ar trebui să trateze cu datele sau informațiile care par private sau confidențiale pentru utilizatorii lor. Probabil știți și că o grămadă de legi existente lovesc în centrul modului în care datele ar trebui să fie gestionate de entitățile tehnologice. De asemenea, sunt șanse ca noile legile AI propuse să se încrucișeze și pe același teritoriu. Vezi, de exemplu, acoperirea mea despre Declarația drepturilor AI și alte dispute legale care au loc despre AI, la linkul aici.

Iată concluzia cheie din această discuție:

  • Fiți foarte, foarte, foarte atenți la ce date sau informații alegeți să introduceți în solicitări atunci când utilizați AI generativă și, în mod similar, fiți extrem de atenți și anticipați ce tipuri de eseuri afișate ați putea obține, deoarece rezultatele pot fi, de asemenea, absorbite.

Acest lucru implică faptul că nu ar trebui să utilizați AI generativ?

Nu, nu este deloc ceea ce spun.

Folosiți AI generativă după cum doriți. Esența este că trebuie să fii atent la modul în care îl folosești. Aflați ce fel de prevederi de licență sunt asociate cu utilizarea. Decideți dacă puteți trăi cu aceste prevederi. Dacă există modalități de a informa producătorul AI că doriți să invocați anumite tipuri de protecție sau alocații suplimentare, asigurați-vă că faceți acest lucru.

Voi menționa și o altă fațetă despre care îmi dau seama că îi va înnebuni pe unii oameni. Aici merge. În ciuda oricăror prevederi de licențiere, trebuie să presupuneți, de asemenea, că există posibilitatea ca aceste cerințe să nu fie pe deplin respectate. Lucrurile pot merge prost. Lucrurile pot aluneca printre crăpături. În cele din urmă, sigur, s-ar putea să aveți un proces legal împotriva unui producător de AI pentru că nu s-a conformat cu prevederile sale, dar asta se întâmplă oarecum după ce calul a ieșit deja din hambar.

O modalitate potențial de foarte sigură de a proceda ar fi să vă configurați propria instanță pe propriile sisteme, fie în cloud, fie în interior (și, presupunând că respectați măsurile adecvate de securitate cibernetică, ceea ce, desigur, unii nu fac și sunt mai rele. off în propriul lor cloud decât folosind cloud-ul furnizorului de software). O problemă oarecum sâcâitoare este că puține dintre aplicațiile generative AI la scară largă permit acest lucru chiar acum. Toate lucrează aproape doar pe baza noului nostru. Puțini au pus la dispoziție opțiunea de a avea o instanță întreagă creată doar pentru tine. Am prezis că vom vedea treptat să apară această opțiune, deși la început va fi destul de costisitoare și oarecum complicată, vezi previziunile mele la linkul aici.

Cum, altfel, oamenii deosebit de strălucitori și în special astuți ajung într-o mlaștină de eroziune a datelor sau a confidențialității informațiilor?

Atractia acestor aplicații AI generative este destul de magnetică odată ce începeți să utilizați una. Pas cu pas, te trezești hipnotizat și optezi pentru a-ți pune degetele de la picioare din ce în ce mai mult în apele AI generative. Următorul lucru pe care îl știți, predați cu ușurință conținutul proprietar care ar trebui să fie păstrat privat și confidențial într-o aplicație AI generativă.

Rezistați îndemnului și vă rugăm să vă abțineți de la a cădea treptat într-o capcană neplăcută.

Pentru liderii de afaceri și directorii de nivel superior, același avertisment se adresează dvs. și tuturor oamenilor din compania dumneavoastră. Directorii seniori sunt prinși de entuziasmul și uimirea de a folosi și AI generativă. Aceștia pot să încurce cu adevărat și pot introduce informații secrete de nivel superior într-o aplicație AI.

În plus, ei ar putea avea ligi largi de angajați, de asemenea, care se joacă cu AI generativă. Mulți dintre acei angajați, altfel conștienți, introduc fără minte și fericit informațiile private și confidențiale ale companiei în aceste aplicații AI. Potrivit știrilor recente, Amazon a descoperit că unii angajați introduceau diverse informații de proprietate în ChatGPT. S-a spus că un avertisment orientat spre legal a fost trimis intern pentru a fi precaut în utilizarea irezistibilei aplicații AI.

În general, un pic de ironie apare în fenomenul în creștere al angajaților care introduc, vrând-nevrând, date confidențiale în ChatGPT și alte AI generative. Permiteți-mi să detaliez. Companiile moderne de astăzi au, de obicei, politici stricte de securitate cibernetică pe care le-au elaborat și implementat cu minuțiozitate. Există numeroase protecții tehnologice. Speranța este de a preveni lansarea accidentală a lucrurilor cruciale. Un ritm continuu de tobă este să fii atent când vizitezi site-uri web, să fii atent când folosești aplicații neaprobate și așa mai departe.

Alături vin și aplicații AI generative, cum ar fi ChatGPT. Știrile despre aplicația AI trec prin acoperiș și primesc o atenție larg răspândită. Apare o frenezie. Oamenii din aceste companii care au toate aceste protecții de securitate cibernetică aleg să acceseze o aplicație AI generativă. Ei se joacă cu el la început. Apoi încep să introducă datele companiei. Wham, acum au expus informații care nu ar fi trebuit să fie dezvăluite.

Noua jucărie strălucitoare care ocolește în mod magic cheltuielile de milioane de dolari pentru protecția securității cibernetice și instruirea continuă despre ce să nu faci. Dar, hei, este interesant să folosești AI generativă și să faci parte din mulțimea „înăuntru”. Asta contează, aparent.

Am încredere că înțelegi ideea mea de a fi extrem de precaut.

În continuare, să aruncăm o privire de aproape asupra modului în care AI generativă se ocupă din punct de vedere tehnic cu textul solicitărilor și al eseurilor publicate. Vom explora, de asemenea, unele dintre prevederile de licențiere, folosind ChatGPT ca exemplu. Vă rugăm să realizați că nu voi acoperi întreaga gamă a acestor elemente de licențiere. Asigurați-vă că implicați consilierul dvs. juridic pentru orice aplicație AI generativă pe care ați decide să le utilizați. De asemenea, licențele diferă de la un producător de AI la un producător de AI, plus un anumit producător de AI poate opta pentru a-și schimba licențele, așa că asigurați-vă că rămâneți vigilenți la orice prevede cea mai recentă versiune a licenței.

Avem de făcut câteva despachetări interesante pe acest subiect amețitor.

În primul rând, ar trebui să ne asigurăm că suntem cu toții pe aceeași pagină despre ce constă Generative AI și despre ce este ChatGPT. Odată ce acoperim această fațetă fundamentală, putem efectua o evaluare convingătoare a metaforei oglinzii asociate cu acest tip de IA.

Dacă sunteți deja familiarizat cu Generative AI și ChatGPT, puteți să treceți la următoarea secțiune și să continuați cu secțiunea care o urmează. Cred că toți ceilalți vor găsi instructive detaliile vitale despre aceste chestiuni citind cu atenție secțiunea și trecând la curent.

O instrucție rapidă despre IA generativă și ChatGPT

ChatGPT este un sistem interactiv AI de uz general, orientat spre conversație, în esență un chatbot general aparent inofensiv, cu toate acestea, este folosit în mod activ și avid de oameni în moduri care îi prind pe mulți complet neprevăzuți, așa cum voi detalia în scurt timp. Această aplicație AI folosește o tehnică și o tehnologie din domeniul AI, care este adesea denumită AI generativă. AI generează rezultate precum text, ceea ce face ChatGPT. Alte aplicații AI bazate pe generații produc imagini precum imagini sau lucrări de artă, în timp ce altele generează fișiere audio sau videoclipuri.

Mă voi concentra pe aplicațiile AI generative bazate pe text în această discuție, deoarece asta face ChatGPT.

Aplicațiile AI generative sunt extrem de ușor de utilizat.

Tot ce trebuie să faceți este să introduceți o solicitare, iar aplicația AI va genera pentru dvs. un eseu care încearcă să răspundă la solicitarea dvs. Textul compus va părea ca și cum eseul a fost scris de mâna și mintea omului. Dacă ar fi să introduceți un mesaj care spune „Spune-mi despre Abraham Lincoln”, IA generativă vă va oferi un eseu despre Lincoln. Aceasta este clasificată în mod obișnuit ca IA generativă care funcționează text-to-text sau unii preferă să o numească text-to-eseu ieșire. După cum am menționat, există și alte moduri de AI generativă, cum ar fi text-to-art și text-to-video.

Primul tău gând ar putea fi că această capacitate generativă nu pare atât de mare în ceea ce privește producerea de eseuri. Puteți face cu ușurință o căutare online pe Internet și puteți găsi cu ușurință tone și tone de eseuri despre președintele Lincoln. Dezactivarea în cazul IA generativă este că eseul generat este relativ unic și oferă o compoziție originală mai degrabă decât o imitație. Dacă ar fi să încercați să găsiți eseul produs de inteligență artificială online undeva, este puțin probabil să îl descoperiți.

IA generativă este pregătită în prealabil și folosește o formulare matematică și computațională complexă care a fost creată prin examinarea tiparelor din cuvintele scrise și poveștile de pe web. Ca rezultat al examinării a mii și milioane de pasaje scrise, AI poate scoate noi eseuri și povești care sunt o mizerie a ceea ce a fost găsit. Adăugând diferite funcționalități probabilistice, textul rezultat este destul de unic în comparație cu ceea ce a fost folosit în setul de antrenament.

De aceea, a existat un scandal despre faptul că studenții pot înșela atunci când scriu eseuri în afara sălii de clasă. Un profesor nu poate să ia pur și simplu eseul despre care elevii înșelător susțin că este propria lor scriere și să caute să afle dacă a fost copiat dintr-o altă sursă online. În general, nu va exista niciun eseu preexistent definitiv online care să se potrivească eseului generat de AI. În cele din urmă, profesorul va trebui să accepte cu reținere că elevul a scris eseul ca pe o lucrare originală.

Există preocupări suplimentare cu privire la IA generativă.

Un dezavantaj esențial este că eseurile produse de o aplicație AI bazată pe generație pot avea încorporate diverse falsuri, inclusiv fapte evident neadevărate, fapte care sunt descrise în mod înșelător și fapte aparente care sunt în întregime fabricate. Aceste aspecte fabricate sunt adesea denumite o formă de halucinații AI, o expresie pe care o dezamăgesc, dar, din păcate, pare să câștige popularitate oricum (pentru explicația mea detaliată despre motivul pentru care aceasta este o terminologie proastă și nepotrivită, consultați acoperirea mea la linkul aici).

Aș dori să clarific un aspect important înainte de a intra în grosimea acestui subiect.

Pe rețelele de socializare au existat câteva afirmații exagerate despre AI generativă afirmând că această ultimă versiune a AI este de fapt AI sensibil (nu, au gresit!). Cei din Etica AI și Legea AI sunt îngrijorați în special de această tendință în plină dezvoltare a revendicărilor extinse. Ai putea spune politicos că unii oameni exagerează ceea ce poate face de fapt IA de astăzi. Ei presupun că AI are capacități pe care încă nu le-am putut realiza. Ce păcat. Mai rău încă, ei își pot permite lor și altora să intre în situații îngrozitoare din cauza presupunerii că IA va fi simțitoare sau asemănătoare omului pentru a putea lua măsuri.

Nu antropomorfizați IA.

Dacă procedați astfel, veți fi prins într-o capcană de încredere lipicioasă și dură de a aștepta ca AI să facă lucruri pe care nu le poate realiza. Acestea fiind spuse, cea mai recentă IA generativă este relativ impresionantă pentru ceea ce poate face. Fiți conștienți de faptul că există limitări semnificative pe care ar trebui să le aveți în vedere în mod continuu atunci când utilizați orice aplicație AI generativă.

Dacă sunteți interesat de agitația care se extinde rapid despre ChatGPT și AI generativ, am făcut o serie concentrată în rubrica mea pe care s-ar putea să o găsiți informativă. Iată o privire în cazul în care vreunul dintre aceste subiecte vă va capta:

  • 1) Predicții ale progreselor generative ale IA. Dacă doriți să știți ce este probabil să se dezvolte despre AI pe parcursul anului 2023 și mai departe, inclusiv progresele viitoare în AI generativă și ChatGPT, veți dori să citiți lista mea cuprinzătoare de predicții pentru 2023 la linkul aici.
  • 2) IA generativă și sfaturi de sănătate mintală. Am ales să analizez modul în care AI generativă și ChatGPT sunt folosite pentru sfaturi de sănătate mintală, o tendință supărătoare, conform analizei mele concentrate la linkul aici.
  • 3) Fundamentele AI generative și ChatGPT. Această lucrare explorează elementele cheie ale modului în care funcționează AI generativă și, în special, se adâncește în aplicația ChatGPT, inclusiv o analiză a zgomotului și a fanfarei, la linkul aici.
  • 4) Tensiunea dintre profesori și studenți față de AI generativă și ChatGPT. Iată modalitățile prin care elevii vor folosi AI generativ și ChatGPT. În plus, există mai multe modalități prin care profesorii pot face față acestui val. Vedea linkul aici.
  • 5) Context și utilizare generativă a IA. Am făcut, de asemenea, o examinare ironică cu aromă sezonieră despre un context legat de Moș Crăciun care implică ChatGPT și IA generativă la linkul aici.
  • 6) Escrocii care folosesc AI generativ. Într-o notă de rău augur, unii escroci și-au dat seama cum să folosească IA generativă și ChatGPT pentru a face greșeli, inclusiv generarea de e-mailuri înșelătorii și chiar producerea de coduri de programare pentru malware, vezi analiza mea la linkul aici.
  • 7) Greșeli ale începătorilor folosind IA generativă. Mulți oameni depășesc și subestima în mod surprinzător ceea ce pot face AI generativă și ChatGPT, așa că m-am uitat în special la subestimarea pe care tind să o facă începătorii AI, vezi discuția la linkul aici.
  • 8) A face față îndemnurilor AI generative și halucinațiilor AI. Descriu o abordare de vârf pentru utilizarea suplimentelor AI pentru a face față diferitelor probleme asociate cu încercarea de a introduce solicitări adecvate în AI generativă, plus că există suplimente AI suplimentare pentru detectarea așa-numitelor rezultate halucinate și falsități AI, după cum acoperit la linkul aici.
  • 9) Dezmințirea afirmațiilor Bonehead despre detectarea eseurilor generative produse de IA. Există o goană greșită de aur de aplicații AI care proclamă că pot stabili dacă un anumit eseu a fost produs de oameni versus generat de AI. În general, acest lucru este înșelător și, în unele cazuri, o afirmație nespusă și insuportabilă, consultați acoperirea mea la linkul aici.
  • 10) Jocul de rol prin IA generativă ar putea aduce dezavantaje pentru sănătatea mintală. Unii folosesc AI generativ, cum ar fi ChatGPT, pentru a face jocuri de rol, prin care aplicația AI răspunde unui om ca și cum ar exista într-o lume fantastică sau într-un alt cadru inventat. Acest lucru ar putea avea repercusiuni asupra sănătății mintale, vezi linkul aici.
  • 11) Expunerea intervalului de erori și falsități rezultate. Sunt întocmite diverse liste colectate pentru a încerca să prezinte natura erorilor și falsurilor produse de ChatGPT. Unii cred că acest lucru este esențial, în timp ce alții spun că exercițiul este inutil, vezi analiza mea la linkul aici.
  • 12) Școlile care interzic generative AI ChatGPT le lipsește barca. S-ar putea să știți că diferite școli, cum ar fi Departamentul Educației din New York City (NYC), au declarat interzicerea utilizării ChatGPT în rețeaua și dispozitivele asociate. Deși aceasta ar putea părea o măsură de precauție utilă, nu va mișca acul și, din păcate, ratează complet barca, vezi acoperirea mea la linkul aici.
  • 13) Generative AI ChatGPT va fi peste tot datorită viitoarei API. Urmează o întorsătură importantă în ceea ce privește utilizarea ChatGPT, și anume că, prin utilizarea unui portal API în această aplicație specială AI, alte programe software vor putea invoca și utiliza ChatGPT. Acest lucru va extinde dramatic utilizarea AI generativă și va avea consecințe notabile, vezi elaborarea mea la linkul aici.
  • 14) Modalități prin care ChatGPT s-ar putea distra sau se topește. Câteva probleme potențiale deranjante se află în fața ChatGPT în ceea ce privește subcotarea laudelor extraordinare pe care le-a primit până acum. Această analiză examinează îndeaproape opt posibile probleme care ar putea face ca ChatGPT să-și piardă din abur și chiar să ajungă în cușă, vezi linkul aici.

S-ar putea să găsiți interesant faptul că ChatGPT se bazează pe o versiune a unei aplicații AI predecesoare, cunoscută sub numele de GPT-3. ChatGPT este considerat a fi un pas ușor următor, denumit GPT-3.5. Se anticipează că GPT-4 va fi lansat probabil în primăvara lui 2023. Probabil, GPT-4 va fi un pas impresionant înainte în ceea ce privește capacitatea de a produce eseuri aparent și mai fluente, de a merge mai profund și de a fi uimitor. -mirație inspiratoare în ceea ce privește compozițiile pe care le poate produce.

Vă puteți aștepta să vedeți o nouă rundă de uimire exprimată când vine primăvara și va fi lansat cea mai recentă IA generativă.

Aduc în discuție acest lucru deoarece există un alt unghi de reținut, constând într-un potențial călcâi lui Ahile pentru aceste aplicații AI generative mai bune și mai mari. Dacă vreun furnizor de AI pune la dispoziție o aplicație AI generativă care aruncă spumos, acest lucru ar putea zdrobi speranțele acelor producători de AI. O depășire a societății poate face ca toată IA generativă să capete un ochi negru. Oamenii vor fi, fără îndoială, destul de supărați de rezultatele greșite, care s-au întâmplat deja de multe ori și au dus la reacții zgomotoase de condamnare a societății la adresa AI.

O ultimă avertizare deocamdată.

Indiferent ce vedeți sau citiți într-un răspuns AI generativ, asta pare pentru a fi transmis ca fiind pur faptice (date, locuri, oameni etc.), asigurați-vă că rămâneți sceptici și sunteți dispus să verificați din nou ceea ce vedeți.

Da, datele pot fi inventate, locurile pot fi inventate, iar elementele la care de obicei ne așteptăm să fie fără reproș sunt toate supus suspiciunilor. Nu credeți ceea ce citiți și păstrați un ochi sceptic atunci când examinați eseuri sau rezultate generative de AI. Dacă o aplicație AI generativă îți spune că Abraham Lincoln a zburat prin țară cu propriul său avion privat, ai ști, fără îndoială, că acest lucru este malarky. Din păcate, unii oameni s-ar putea să nu realizeze că avioanele cu avioane nu existau pe vremea lui sau s-ar putea să știe, dar să nu observe că eseul face această afirmație nespusă și scandalos de falsă.

O doză puternică de scepticism sănătos și o mentalitate persistentă de neîncredere vor fi cel mai bun atu al tău atunci când folosești IA generativă.

Suntem gata să trecem la următoarea etapă a acestei elucidări.

Știind ce se va întâmpla diavolul cu acel text

Acum că avem elementele fundamentale stabilite, ne putem scufunda în considerațiile privind datele și informațiile atunci când folosim AI generativă.

În primul rând, să luăm în considerare pe scurt ce se întâmplă atunci când introduceți un text într-o solicitare pentru ChatGPT. Nu știm sigur ce se întâmplă în ChatGPT, deoarece programul este considerat proprietar. Unii au subliniat că acest lucru subminează un sentiment de transparență despre aplicația AI. O remarcă oarecum înțelegătoare este că pentru o companie care se numește OpenAI, AI-ul lor este de fapt închis accesului public și nu este disponibil ca sursă deschisă.

Să discutăm despre tokenizare.

Când introduceți text simplu într-un prompt și apăsați Retur, probabil că există o conversie care are loc imediat. Textul este convertit într-un format format din jetoane. Jetoanele sunt subpărți ale cuvintelor. De exemplu, cuvântul „hamburger” ar fi în mod normal împărțit în trei jetoane constând din porțiunea „ham”, „bur” și „ger”. O regulă generală este că jetoanele tind să reprezinte aproximativ patru caractere sau sunt considerate aproximativ 75% dintr-un cuvânt englezesc convențional.

Fiecare jeton este apoi reformulat ca număr. Diverse tabele interne desemnează ce jeton este atribuit unui anumit număr. Aprecierea acestui lucru este că textul pe care l-ați introdus este acum în întregime un set de numere. Aceste numere sunt folosite pentru a analiza computațional promptul. În plus, rețeaua de potrivire a modelelor pe care am menționat-o mai devreme se bazează și pe valori tokenizate. În cele din urmă, atunci când se compune sau se generează eseul rezultat, aceste jetoane numerice sunt mai întâi utilizate, iar apoi, înainte de a fi afișate, jetoanele sunt convertite înapoi în seturi de litere și cuvinte.

Gândește-te la asta pentru o clipă.

Când le spun oamenilor că așa funcționează mecanica procesării, ei sunt adesea uluiți. Ei au presupus că o aplicație AI generativă, cum ar fi ChatGPT, trebuie să folosească cuvinte complet integrative. Presupunem logic că cuvintele acționează ca cheia de boltă pentru identificarea statistică a relațiilor în narațiunile și compozițiile scrise. Se pare că procesarea tinde de fapt să folosească jetoane. Poate că acest lucru se adaugă la uimirea cu privire la modul în care procesul de calcul pare să facă o treabă destul de convingătoare de a imita limbajul uman.

Te-am ghidat prin acest proces din cauza unei concepții greșite comune care pare să se răspândească. Unii oameni par să creadă că, deoarece textul dvs. prompt este convertit în simboluri numerice, sunteți în siguranță că elementele interne ale aplicației AI nu mai au textul introdus inițial. Astfel, afirmația continuă, chiar dacă ați introdus informații confidențiale în promptul dvs., nu aveți griji, deoarece totul a fost aparent simbolizat.

Această noțiune este o eroare. Tocmai am subliniat că jetoanele numerice pot fi readuse cu ușurință în formatul textual de litere și cuvinte. Același lucru se poate face cu promptul convertit care a fost tokenizat. Nu există nimic magic protector în a fi fost tokenizat. Acestea fiind spuse, după conversia în jetoane, dacă există un proces suplimentar care optează să renunțe la jetoane, să le mute și, altfel, să amestece sau să taie lucrurile, în acest caz, există într-adevăr posibilitatea ca unele porțiuni din originalul promptele nu mai sunt intacte (și presupunând că o copie originală nu este altfel păstrată sau stocată undeva intern).

Aș dori în continuare să arunc o privire asupra diferitelor notificări și prevederi de licențiere ale ChatGPT.

Când vă conectați la ChatGPT, sunt afișate o serie de avertismente și comentarii informative.

Aici sunt ei:

  • „Poate genera ocazional informații incorecte.”
  • „Poate produce ocazional instrucțiuni dăunătoare sau conținut părtinitor.”
  • „Instruit pentru a refuza cererile neadecvate.”
  • „Scopul nostru este să obținem feedback extern pentru a ne îmbunătăți sistemele și a le face mai sigure.”
  • „Deși avem măsuri de protecție, sistemul poate genera ocazional informații incorecte sau înșelătoare și poate produce conținut jignitor sau părtinitor. Nu este destinat să dea sfaturi.”
  • „Conversațiile pot fi revizuite de formatorii noștri AI pentru a ne îmbunătăți sistemele.”
  • „Vă rugăm să nu partajați informații sensibile în conversațiile voastre.”
  • „Acest sistem este optimizat pentru dialog. Anunțați-ne dacă un anumit răspuns a fost bun sau inutil.”
  • „Cunoștințe limitate despre lume și evenimente de după 2021.”

Două dintre aceste precauții declarate sunt deosebit de relevante pentru această discuție. Uită-te la al șaselea punct marcat și la al șaptelea punct marcat.

Să le despachetăm pe cele două:

„Conversațiile pot fi revizuite de formatorii noștri AI pentru a ne îmbunătăți sistemele.”

Acest al șaselea punct explică faptul că conversațiile text atunci când se utilizează ChatGPT ar putea fi revizuite de ChatGPT prin intermediul „instructorilor AI”, care se face pentru a-și îmbunătăți sistemele. Acest lucru este pentru a vă informa că pentru toate solicitările de text introduse și eseurile corespunzătoare, toate fac parte din „conversația” pe care o întreprindeți cu ChatGPT, poate fi văzut în întregime de oamenii lor. Motivul oferit este că acest lucru se face pentru a îmbunătăți aplicația AI și, de asemenea, ni se spune că este un tip de sarcină de lucru realizată de formatorii lor AI. Poate da, dar rezultatul este că v-au anunțat că vă pot privi textul. Punct, punct.

Dacă ar face altceva cu textul dvs., probabil că ați căuta un sfat juridic cu privire la dacă au gravitat în mod flagrant dincolo de limitele sugerate de simpla revizuire a textului în scopul îmbunătățirii sistemului (presupunând că ați reușit să descoperiți că au făcut acest lucru, care dintre în sine pare probabil puțin probabil). Oricum, vă puteți imagina cearta legală de a încerca să-i pună la îndemână pe acest lucru și încercările lor de a-și găsi calea de a nu fi prinși pentru că au încălcat cumva limitele declinării lor de răspundere.

„Vă rugăm să nu partajați informații sensibile în conversațiile voastre.”

Al șaptelea punct indică faptul că nu trebuie să partajați informații sensibile în conversațiile dvs. Asta pare relativ simplu. Presupun că s-ar putea să vă chinuiți în ce constă definiția informațiilor sensibile. De asemenea, punctul cu marcatori nu vă spune de ce nu ar trebui să partajați informații sensibile. Dacă într-o zi trebuie să încerci și să explici într-o transpirație groaznică de ce ai introdus în mod prostește date confidențiale, ai putea încerca afirmația sprâncenei ridicate că avertismentul era nespecific, prin urmare, nu ai înțeles semnificația. Ține-ți respirația pe acela.

Una peste alta, îndrăznesc să spun că majoritatea oamenilor pe care i-am văzut folosind ChatGPT tind să nu citească punctele cu marcatori sau să treacă peste măsurile de precauție cu marcatori și doar dau din cap ca și cum ar fi obișnuitul limbaj legal jalnic pe care îl vezi pe toate. timp. Puțini se pare că iau avertismentele strict la suflet. Este o vină a vânzătorului pentru că nu a făcut măsurile de precauție mai pronunțate? Sau ar trebui să presupunem că utilizatorii ar trebui să fie responsabili și să fi citit cu atenție, să înțeleagă și, ulterior, să acționeze judicios pe baza avertismentelor?

Unii susțin chiar că aplicația AI ar trebui să vă avertizeze în mod repetat. De fiecare dată când introduceți o solicitare, software-ul ar trebui să apară un avertisment și să vă întrebe dacă doriți să apăsați revenirea. Din nou si din nou. Deși aceasta ar putea părea o măsură de precauție utilă, este desigur că ar irita pe utilizatori. Este implicat un compromis spinos.

Bine, deci acestea sunt avertismentele evidente, așa cum sunt prezentate pentru toți utilizatorii, să le vadă cu ușurință.

Utilizatorii care ar putea fi mai curioși, ar putea opta să urmeze unele dintre prevederile detaliate de licențiere care sunt postate și online. Mă îndoiesc că mulți o fac. Bănuiala mea este că puțini se uită serios la punctele marcate atunci când se conectează și chiar mai puțini cu o marjă uriașă, apoi aruncă o privire asupra detaliilor de licențiere. Din nou, toți suntem oarecum amorțiți de astfel de lucruri în aceste zile. Nu scuz comportamentul, notez doar de ce apare.

Voi examina câteva fragmente din termenii de licență postați.

În primul rând, iată o definiție a ceea ce ei consideră „conținut” asociat cu utilizarea ChatGPT:

  • „Conținutul tău. Puteți furniza informații pentru Servicii („Input”) și puteți primi rezultate generate și returnate de Servicii pe baza Intrării („Ieșiri”). Intrarea și ieșirea sunt în mod colectiv „Conținut”. Între părți și în măsura permisă de legea aplicabilă, dețineți toate Intrările și, sub rezerva respectării acestor Termeni, OpenAI vă cesionează prin prezenta toate drepturile, titlurile și interesul său asupra și către Ieșire. OpenAI poate folosi Conținutul după cum este necesar pentru a furniza și a menține Serviciile, pentru a respecta legea aplicabilă și pentru a aplica politicile noastre. Sunteți responsabil pentru conținut, inclusiv pentru a vă asigura că acesta nu încalcă nicio lege aplicabilă sau acești Termeni.”

Dacă examinați cu atenție această definiție, veți observa că OpenAI declară că poate folosi conținutul așa cum consideră necesar pentru a-și menține serviciile, inclusiv respectarea legilor aplicabile și aplicarea politicilor sale. Acesta este un cap la îndemână pentru ei. Într-una dintre coloanele mele viitoare, voi discuta un subiect diferit, dar înrudit, în special despre drepturile de proprietate intelectuală (IP) pe care le aveți în ceea ce privește solicitările de text introduse și eseurile scoase (subliniez acest lucru aici de la definirea Conținutul se referă la acest subiect).

Într-o altă parte a termenilor, etichetată ca secțiunea c, ei menționează această fațetă: „Unul dintre principalele avantaje ale modelelor de învățare automată este că pot fi îmbunătățite în timp. Pentru a ajuta OpenAI să furnizeze și să mențină Serviciile, sunteți de acord și instruiți că putem folosi Conținut pentru a dezvolta și îmbunătăți Serviciile.” Acest lucru este asemănător cu atenția pe o singură linie discutată mai devreme care apare atunci când vă conectați la ChatGPT.

Un document separat care este legat de acesta oferă câteva aspecte suplimentare cu privire la aceste chestiuni importante:

  • „Ca parte a acestei îmbunătățiri continue, atunci când utilizați modele OpenAI prin intermediul API-ului nostru, este posibil să folosim datele pe care ni le furnizați pentru a ne îmbunătăți modelele. Acest lucru nu numai că ajută modelele noastre să devină mai precise și mai bune în rezolvarea problemei dvs. specifice, ci ajută și la îmbunătățirea capacităților și siguranței lor generale. Știm că confidențialitatea și securitatea datelor sunt esențiale pentru clienții noștri. Avem mare grijă să folosim controale tehnice și de proces adecvate pentru a vă securiza datele. Îndepărtăm orice informații de identificare personală din datele pe care intenționăm să le folosim pentru a îmbunătăți performanța modelului. De asemenea, folosim doar o mică eșantionare de date per client pentru eforturile noastre de a îmbunătăți performanța modelului. De exemplu, pentru o sarcină, numărul maxim de solicitări API pe care le eșantionăm per client este limitat la 200 la fiecare 6 luni” (extras din documentul intitulat „Cum sunt utilizate datele dvs. pentru a îmbunătăți performanța modelului”).

Rețineți că stipulația indică faptul că prevederea se aplică utilizarea API-ului ca mijloc de conectare și de utilizare a modelelor OpenAI. Este oarecum neclar dacă acest lucru se aplică în mod egal și utilizatorilor finali care folosesc direct ChatGPT.

Într-un alt document, unul care conține lista lor cu diferite întrebări frecvente, ei oferă o serie de întrebări și răspunsuri, dintre care două par deosebit de pertinente pentru această discuție:

  • „(5) Cine poate vedea conversațiile mele? Ca parte a angajamentului nostru față de IA sigură și responsabilă, examinăm conversațiile pentru a ne îmbunătăți sistemele și pentru a ne asigura că conținutul respectă politicile și cerințele noastre de siguranță.”
  • „(8) Puteți șterge anumite solicitări? Nu, nu putem șterge anumite solicitări din istoricul dvs. Vă rugăm să nu împărtășiți informații sensibile în conversațiile voastre.”

Există un document suplimentar care acoperă politica lor de confidențialitate. Acesta spune acest lucru: „Colectăm informații care singure sau în combinație cu alte informații în posesia noastră ar putea fi folosite pentru a vă identifica („Informații personale”)” și apoi continuă să explicăm că ar putea folosi date de jurnal, date de utilizare, informații de comunicare, informații despre dispozitiv, cookie-uri, analize și alte informații despre tine care pot fi colectate. Asigurați-vă că citiți literele mici.

Cred că oferă aproape un tur al unor considerente care stau la baza modului în care ar putea fi utilizate datele dvs. După cum am menționat la început, nu voi trece laborios prin toate prevederile de licențiere.

Sperăm că acest lucru vă va aduce într-o stare de spirit cu privire la aceste chestiuni și vă va rămâne în fruntea minții.

Concluzie

Am mai spus-o și o voi spune din nou, nu introduceți date confidențiale sau private în aceste aplicații AI generative.

Luați în considerare câteva sfaturi sau opțiuni utile cu privire la acest sfat înțelept:

  • Gândește-te înainte de a folosi IA generativă
  • Îndepărtați lucrurile în prealabil
  • Maschează sau falsifică intrarea ta
  • Configurați-vă propria instanță
  • Altele

Voi indica în continuare în ce constă fiecare dintre acestea. Configurarea propriei instanțe a fost tratată mai devreme aici. Utilizarea lui „altul” în lista mea se datorează posibilității altor modalități de a face față prevenirii includerii datelor confidențiale, pe care le voi trata în continuare într-o postare viitoare în coloană.

Să examinăm acestea:

  • Gândește-te înainte de a folosi IA generativă. O abordare implică evitarea completă a utilizării AI generative. Sau măcar gândește-te de două ori înainte să faci asta. Presupun că cea mai sigură cale este să nu folosiți aceste aplicații AI. Dar și acest lucru pare destul de grav și aproape peste bord.
  • Îndepărtați lucrurile în prealabil. O altă abordare constă în eliminarea informațiilor confidențiale sau private din orice introduceți ca solicitare. În acest sens, dacă nu intri, nu există nicio șansă ca acesta să fie infuzat în Borg. Dezavantajul este că, poate, eliminarea părții confidențiale reduce sau subcutează cumva ceea ce încercați să faceți AI generativ să facă pentru dvs.
  • Mascați sau falsificați-vă intrările. Puteți modifica textul propus modificând informațiile, astfel încât tot ceea ce părea confidențial sau privat să fie acum portretizat diferit. De exemplu, în loc de un contract care să menționeze Widget Company și John Smith, modificați textul pentru a face referire la Specious Company și Jane Capone. O problemă aici este dacă veți face o treabă suficient de exhaustivă, astfel încât toate aspectele confidențiale și private să fie complet modificate sau falsificate. Ar fi ușor să ratezi unele dintre încețoșări și să lași în chestii care nu ar trebui să fie acolo.

Iată o întorsătură interesantă adăugată care ți-ar putea face nogginul să se infiltreze mai mult pe acest subiect. Dacă vă puteți asigura complet că niciunul dintre solicitările dvs. de intrare nu conține informații confidențiale, înseamnă aceasta că nu trebuie să aveți nicio grijă în legătură cu eseurile publicate care conțin și informații confidențiale?

Acest lucru ar părea adevărat din punct de vedere axiomatic. Fără intrare confidențială, fără ieșire confidențială.

Iată răsucirea ta uluitoare.

AI generativ este adesea configurat pentru a se reeduca din punct de vedere computațional din solicitările text care sunt furnizate. De asemenea, IA generativă este adesea concepută pentru a se reeduca computațional din eseurile prezentate. Toată această recalificare este menită să îmbunătățească capacitățile AI generative.

Am descris într-una dintre celelalte coloane ale mele următorul experiment pe care l-am întreprins. Un avocat încerca să descopere un mijloc nou de a aborda o problemă juridică. După o privire exhaustivă asupra literaturii juridice, s-a părut că toate unghiurile deja apărute au fost găsite. Folosind AI generativă, am făcut ca aplicația AI să producă o noutate a unei abordări legale care aparent nu fusese identificată anterior. Se credea că nimeni altcineva nu ajunsese încă în această postură legală. O pepită de aur legală, parcă. Aceasta ar putea fi un avantaj juridic competitiv, valoros din punct de vedere strategic, care la momentul potrivit poate fi valorificat și exploatat.

Constituie eseul produs o formă de informații confidențiale, astfel încât a fost generată de IA pentru această persoană și conține ceva special și aparent unic?

Aha, asta ne duce la celălalt subiect aliat și împletit despre proprietatea și drepturile de proprietate intelectuală asociate cu IA generativă. Rămâneți pe fază pentru a vedea cum iese asta.

O remarcă finală deocamdată.

Sofocle a oferit această înțelepciune: „Nu face nimic pe ascuns; căci Timpul vede și aude toate lucrurile și descoperă totul.” Presupun că ați putea să modernizați formularea și să susțineți că IA generativă și cei care creează și întrețin IA sunt predispuși să le vadă pe toate.

Este un sfat modest, demn de amintit.

Sursa: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etica-si-ai-lege/