Comisia Federală de Comerț își propune să dea ciocanul în jos asupra acelor afirmații neîntemeiate neîntemeiate despre AI generativă ChatGPT și alte AI, avertizează etica AI și legea AI

Dă jos ciocanul.

Aceasta este ceea ce Comisia Federală pentru Comerț (FTC) spune că va face cu privire la utilizarea continuă și înrăutățită a afirmațiilor nefondate uriașe despre Inteligența Artificială (AI).

Într-o postare pe blogul oficial din 27 februarie 2023, intitulată „Țineți sub control cererile dvs. de AI” de către avocatul Michael Atleson de la Divizia de practici publicitare FTC, unele cuvinte cu totul ciocănitoare au remarcat că AI nu este doar o formă de înaltă tehnologie computațională, ci și a devenit un jackpot de marketing care a depășit uneori domeniul rezonabil:

  • „Și, oricum, ce este exact „inteligența artificială”? Este un termen ambiguu cu multe definiții posibile. Se referă adesea la o varietate de instrumente și tehnici tehnologice care utilizează calculul pentru a efectua sarcini precum predicții, decizii sau recomandări. Dar un lucru este sigur: este un termen de marketing. Chiar acum, este una fierbinte. Și la FTC, un lucru pe care îl știm despre termenii de marketing fierbinți este că unii agenți de publicitate nu se vor putea împiedica să-i folosească în exces și să-i abuzeze” (postarea site-ului FTC).

Inteligența artificială oferă posibilități mari pentru marketerii care doresc să devină înnebuniți cu adevărat și să se bucure de orice produs sau serviciu bazat pe inteligență artificială sau bazat pe inteligență artificială care este vândut consumatorilor.

Vedeți, tentația de a împinge plicul hiperbolei trebuie să fie enormă, mai ales când un marketer vede alte firme care fac același lucru. Sucurile competitive cer să faceți o exagerare clasică atunci când concurența susține că AI-ul lor merge pe apă. Poate că AI-ul tău este aparent mai bun pentru că zboară în aer, scapă de limitele gravitației și reușește să mestece gumă în același timp.

În utilizarea ciudată a competențelor proclamate de AI care se învecinează sau se îndreaptă de-a dreptul în minciună și înșelăciune trece brațul lung al legii, și anume FTC și alte agenții federale, de stat și locale (a se vedea acoperirea mea continuă a unor astfel de eforturi, inclusiv internaționale). eforturile de reglementare de asemenea, la linkul aici).

Sunteți conștient de faptul că, în calitate de agenție federală, FTC cuprinde Biroul pentru Protecția Consumatorului, mandatat să protejeze consumatorii de acte sau practici considerate înșelătoare în medii comerciale. Acest lucru apare adesea atunci când companiile mint sau induc în eroare consumatorii cu privire la produse sau servicii. FTC își poate folosi puterea sa guvernamentală puternică pentru a ataca astfel de firme ofensatoare.

Postarea pe blogul FTC pe care am citat-o ​​a făcut și această declarație oarecum plină de entuziasm:

  • „Agenții de marketing ar trebui să știe că, în scopul aplicării FTC, afirmațiile false sau nefondate despre eficacitatea unui produs sunt untul nostru.”

Într-un fel, cei care insistă să-și exagereze în mod nejustificat afirmațiile despre AI își doresc să fie pâine prăjită. FTC poate încerca să-l determine pe reclamantul AI să renunțe și, eventual, să se confrunte cu sancțiuni dure pentru încălcările comise.

Iată câteva dintre acțiunile potențiale pe care FTC le poate întreprinde:

  • „Atunci când Comisia Federală pentru Comerț constată un caz de fraudă comis asupra consumatorilor, agenția depune acțiuni în instanța de district federal pentru ordine imediate și permanente de a opri escrocherii; prevenirea fraudătorilor să comită escrocherii în viitor; să-și înghețe bunurile; și obține despăgubiri pentru victime. Când consumatorii văd sau aud o reclamă, fie că este pe internet, radio sau televiziune, sau oriunde altundeva, legea federală spune că o reclamă trebuie să fie veridică, să nu inducă în eroare și, atunci când este cazul, susținută de dovezi științifice. FTC aplică aceste legi privind adevărul în publicitate și aplică aceleași standarde indiferent de locul unde apare un anunț – în ziare și reviste, online, prin poștă sau pe panouri publicitare sau autobuze” (site-ul FTC conform secțiunii despre Adevărul în publicitate)

Au existat o serie de exemple relativ recente de profil înalt de FTC urmărind incidente de publicitate falsă.

De exemplu, L'Oreal a avut probleme pentru că a făcut publicitate că produsele lor de îngrijire a pielii Paris Youth Code au fost „dovedite clinic” că îi fac pe oameni să pară „vizibil mai tineri” și „să stimuleze genele”, esența acestor afirmații s-a dovedit a nu fi susținută de substanțe. dovezi științifice și FTC a luat măsuri în consecință. Un alt exemplu proeminent a constat în publicitatea Volkswagen conform căreia mașinile lor diesel foloseau „motorină curată” și, prin urmare, se presupune că emise cantități destul de scăzute de poluare. În acest caz, testele de emisii pe care le-a efectuat Volkswagen au fost efectuate în mod fraudulos pentru a-și masca adevăratele emisii. Acțiunea de aplicare a FTC a condus la un acord de compensare pentru consumatorii afectați.

Ideea că AI ar trebui să beneficieze, de asemenea, de un control similar în ceea ce privește afirmațiile nefondate sau poate complet frauduloase este cu siguranță o cauză oportună și demnă.

Există o manie pronunțată despre AI chiar acum, încântată de apariția lui AI generativă. Acest tip special de IA este luat în considerare generativ deoarece este capabil să genereze rezultate care aproape par a fi concepute de o mână umană, deși AI-ul calculează acest lucru. O aplicație AI cunoscută sub numele de ChatGPT de către compania OpenAI a atras o atenție imensă și a condus mania AI în stratosferă. Voi explica într-un moment despre ce este AI generativă și voi descrie natura aplicației AI ChatGPT.

Desigur, AI în general există de ceva vreme. Au existat o serie de suișuri și coborâșuri de tip roller coaster asociate cu promisiunile despre ceea ce poate realiza AI. Ai putea spune că suntem la un nou punct culminant. Unii cred că acesta este doar punctul de pornire și mergem mai departe. Alții nu sunt de acord cu fervoare și afirmă că gambitul generativ AI va lovi un zid, și anume, va ajunge în curând într-o fundătură, iar plimbarea cu roller coaster-ul va coborî.

Timpul va spune.

FTC a cerut anterior ca afirmațiile care acoperă AI trebuie să fie echilibrate în mod adecvat și rezonabile. Într-o postare oficială pe blogul FTC din 19 aprilie 2021, intitulată „Aiming for Truth, Fairness, And Equity In Your Company’s Use Of AI”, Elisa Jillson a remarcat mai multe moduri în care acțiunile de aplicare a legii apar din punct de vedere legal și a evidențiat în special preocupările cu privire la AI care pătrund părtiniri nejustificate. :

  • „FTC are zeci de ani de experiență în aplicarea a trei legi importante pentru dezvoltatorii și utilizatorii de AI.”
  • Secțiunea 5 din Legea FTC. Legea FTC interzice practicile neloiale sau înșelătoare. Aceasta ar include vânzarea sau utilizarea, de exemplu, de algoritmi părtinitori rasial.”
  • Un drept echitabil de raportare a creditelor. FCRA intră în vigoare în anumite circumstanțe în care un algoritm este utilizat pentru a refuza oamenilor angajarea, locuința, creditul, asigurarea sau alte beneficii.”
  • Legea egalității de șanse de credit. ECOA face ilegal ca o companie să folosească un algoritm părtinitor care are ca rezultat discriminarea creditelor pe bază de rasă, culoare, religie, origine națională, sex, stare civilă, vârstă sau pentru că o persoană primește asistență publică.”

O remarcă remarcabilă în postarea de pe blog menționată mai sus menționează această afirmație rostită clar:

  • „În conformitate cu Legea FTC, declarațiile dumneavoastră către clienții de afaceri și consumatorii deopotrivă trebuie să fie veridice, să nu fie înșelătoare și să fie susținute de dovezi” (ibid).

Limbajul juridic al secțiunii 5 a Legii FTC reia acest sentiment:

  • „Metodele neloiale de concurență în comerțul sau care afectează comerțul, precum și actele sau practicile neloiale sau înșelătoare în sau care afectează comerțul sunt declarate ilegale” (sursa: Secțiunea 5 din Legea FTC).

Pare o ușurare să știi că FTC și alte agenții guvernamentale țin ochii deschiși și gata cu un ciocan atârnând peste capul oricărei organizații care ar putea îndrăzni să emită mesaje nedrepte sau înșelătoare despre AI.

Toate acestea implică faptul că puteți sta liniștit și puteți presupune că acei creatori de AI și promotori de AI vor fi precauți în afirmațiile lor de marketing despre AI și vor fi atenți să nu facă îndemnuri exorbitante sau scandaloase?

La naiba nu.

Vă puteți aștepta ca marketerii să fie marketeri. Ei vor urmări să facă afirmații uriașe și nefondate despre AI până la sfârșitul timpului. Unii vor face acest lucru și nu vor fi conștienți orbește că a face astfel de afirmații le poate duce pe ei și pe compania lor în necazuri. Alții știu că pretențiile ar putea cauza probleme, dar își dau seama că șansele de a fi prinși sunt mici. Există și unii care pariază că pot ocoli marginea problemei și susțin legal că nu au alunecat în apele tulburi de a fi neadevărați sau înșelător.

Lăsați avocații să-și dea seama, spun unii marketeri AI. Între timp, abur în față. Dacă într-o zi FTC sau vreo altă agenție guvernamentală bate la ușă, așa să fie. Banii de făcut sunt acum. Poate puneți o bucată din aluatul de odinioară într-un fel de fond fiduciar pentru rezolvarea problemelor legale din aval. Deocamdată, trenul de bani este în curs de desfășurare și ai fi uluitor de prost să ratezi sosul ușor de luat.

Există o mulțime de raționalizări cu privire la publicitatea AI până la maxim:

  • Toată lumea face afirmații ciudate despre AI, așa că ar fi bine să facem și noi
  • Nimeni nu poate spune cu siguranță unde este linia de demarcație în ceea ce privește adevărurile despre AI
  • Putem spune afirmațiile noastre despre inteligența noastră pentru a rămâne la un centimetru sau doi în zona de siguranță
  • Guvernul nu va prinde ce facem noi, suntem un pește mic într-o mare mare
  • Roțile justiției sunt atât de lente încât nu pot ține pasul cu viteza progreselor AI
  • Dacă consumatorii se îndrăgostesc de afirmațiile noastre despre inteligența artificială, aceasta este asupra lor, nu asupra noastră
  • Dezvoltatorii AI din firma noastră au spus că putem spune ceea ce am spus în afirmațiile noastre de marketing
  • Nu lăsați echipa juridică să-și bage nasul în aceste lucruri AI pe care le trâmbițăm, pur și simplu vor pune kibosh în campaniile noastre grozave de marketing AI și vor fi un băț proverbial în noroi
  • Altele

Sunt acele raționalizări o rețetă pentru succes sau o rețetă pentru dezastru?

Pentru producătorii de inteligență artificială care nu acordă atenție acestor probleme legale serioase și serioase, aș sugera că se îndreaptă către un dezastru.

Consultându-mă zilnic și săptămânal cu multe companii de inteligență artificială, le avertizez că ar trebui să caute consiliere juridică convingătoare, deoarece banii pe care îi câștigă astăzi vor fi potențial restituiți și cu atât mai mult odată ce se confruntă cu procese civile din partea consumatorilor. împreună cu acțiunile guvernamentale de aplicare a legii. În funcție de cât de departe merg lucrurile, repercusiunile criminale pot sta și ele în aripi.

În coloana de astăzi, voi aborda preocupările tot mai mari că hype-ul de marketing care stă la baza inteligenței artificiale depășește din ce în ce mai mult linia în agravarea practicilor neplăcute și înșelătoare. Mă voi uita la baza acestor nedumeriri. În plus, acest lucru va include ocazional referirea la cei care folosesc și folosesc aplicația AI ChatGPT, deoarece este gorila de 600 de lire a AI generativă, deși rețineți că există o mulțime de alte aplicații AI generative și, în general, se bazează pe aceleași principii generale.

Între timp, s-ar putea să vă întrebați ce este de fapt IA generativă.

Să acoperim mai întâi elementele fundamentale ale inteligenței artificiale generative și apoi putem arunca o privire atentă asupra chestiunii presante la îndemână.

În toate acestea se regăsesc o mulțime de considerente de etică AI și de legislație AI.

Vă rugăm să fiți conștienți de faptul că există eforturi în desfășurare pentru a introduce principiile AI etice în dezvoltarea și implementarea aplicațiilor AI. Un contingent tot mai mare de eticieni ai inteligenței artificiale îngrijorați și de altădată încearcă să se asigure că eforturile de a concepe și adopta IA țin cont de viziunea de a face AI pentru bine si evitarea AI pentru rău. De asemenea, există noi legi propuse pentru AI, care sunt puse în discuție ca potențiale soluții pentru a împiedica eforturile AI să devină dezmembrate cu privire la drepturile omului și altele asemenea. Pentru acoperirea mea continuă și extinsă a eticii AI și a legii AI, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Dezvoltarea și promulgarea preceptelor de IA etică sunt urmărite pentru a preveni, sperăm, ca societatea să cadă într-o multitudine de capcane care inducă IA. Pentru acoperirea mea a principiilor de etică a ONU AI așa cum au fost concepute și susținute de aproape 200 de țări prin eforturile UNESCO, a se vedea linkul aici. Într-o ordine similară, sunt explorate noi legi AI pentru a încerca să mențină AI pe o chilă uniformă. Una dintre cele mai recente preluari constă într-un set de propuse Declarația drepturilor AI pe care Casa Albă a SUA a eliberat recent pentru a identifica drepturile omului într-o epocă a IA, vezi linkul aici. Este nevoie de un sat pentru a menține AI și dezvoltatorii AI pe calea corectă și pentru a descuraja eforturile intemeiate sau accidentale care ar putea submina societatea.

Voi integra în această discuție considerațiile legate de Etica AI și Legea AI.

Fundamentele AI generative

Cea mai cunoscută instanță de IA generativă este reprezentată de o aplicație AI numită ChatGPT. ChatGPT a apărut în conștiința publicului în noiembrie, când a fost lansat de firma de cercetare AI OpenAI. De când ChatGPT a adunat titluri uimitoare și a depășit uimitor cele cincisprezece minute de faimă alocate.

Bănuiesc că probabil ați auzit de ChatGPT sau poate chiar cunoașteți pe cineva care l-a folosit.

ChatGPT este considerată o aplicație AI generativă deoarece ia ca intrare ceva text de la un utilizator și apoi generează sau produce o ieșire care constă într-un eseu. AI este un generator text-to-text, deși descriu AI-ul ca fiind un generator text-to-essay, deoarece asta clarifică mai ușor pentru ce este folosit în mod obișnuit. Puteți folosi AI generativ pentru a compune compoziții lungi sau îl puteți face să ofere comentarii destul de scurte și concise. Totul este la cererea ta.

Tot ce trebuie să faceți este să introduceți o solicitare, iar aplicația AI va genera pentru dvs. un eseu care încearcă să răspundă la solicitarea dvs. Textul compus va părea ca și cum eseul a fost scris de mâna și mintea omului. Dacă ar fi să introduceți un mesaj care spune „Spune-mi despre Abraham Lincoln”, IA generativă vă va oferi un eseu despre Lincoln. Există și alte moduri de AI generativă, cum ar fi text-to-art și text-to-video. Mă voi concentra aici pe variația text-to-text.

Primul tău gând ar putea fi că această capacitate generativă nu pare atât de mare în ceea ce privește producerea de eseuri. Puteți face cu ușurință o căutare online pe Internet și puteți găsi cu ușurință tone și tone de eseuri despre președintele Lincoln. Dezactivarea în cazul IA generativă este că eseul generat este relativ unic și oferă o compoziție originală mai degrabă decât o imitație. Dacă ar fi să încercați să găsiți eseul produs de inteligență artificială online undeva, este puțin probabil să îl descoperiți.

IA generativă este pregătită în prealabil și folosește o formulare matematică și computațională complexă care a fost creată prin examinarea tiparelor din cuvintele scrise și poveștile de pe web. Ca rezultat al examinării a mii și milioane de pasaje scrise, AI poate scoate noi eseuri și povești care sunt o mizerie a ceea ce a fost găsit. Adăugând diferite funcționalități probabilistice, textul rezultat este destul de unic în comparație cu ceea ce a fost folosit în setul de antrenament.

Există numeroase preocupări cu privire la IA generativă.

Un dezavantaj esențial este că eseurile produse de o aplicație AI bazată pe generație pot avea încorporate diverse falsuri, inclusiv fapte vădit neadevărate, fapte care sunt descrise în mod înșelător și fapte aparente care sunt în întregime fabricate. Aceste aspecte fabricate sunt adesea denumite o formă de halucinații AI, o expresie pe care o dezamăgesc, dar, din păcate, pare să câștige popularitate oricum (pentru explicația mea detaliată despre motivul pentru care aceasta este o terminologie proastă și nepotrivită, consultați acoperirea mea la linkul aici).

O altă îngrijorare este că oamenii își pot asuma cu ușurință creditul pentru un eseu generativ produs de inteligență artificială, în ciuda faptului că nu au compus eseul ei înșiși. S-ar putea să fi auzit că profesorii și școlile sunt destul de îngrijorați de apariția aplicațiilor AI generative. Elevii pot folosi AI generativ pentru a scrie eseurile atribuite. Dacă un elev susține că un eseu a fost scris de propria mână, există șanse mici ca profesorul să poată discerne dacă a fost în schimb falsificat de IA generativă. Pentru analiza mea a acestei fațete care confundă elevul și profesorul, consultați acoperirea mea la linkul aici și linkul aici.

Pe rețelele de socializare au existat câteva afirmații exagerate despre AI generativă afirmând că această ultimă versiune a AI este de fapt AI sensibil (nu, au gresit!). Cei din Etica AI și Legea AI sunt îngrijorați în special de această tendință în plină dezvoltare a revendicărilor extinse. Ai putea spune politicos că unii oameni exagerează ceea ce poate face IA de astăzi. Ei presupun că AI are capacități pe care încă nu le-am putut realiza. Asta e regretabil. Mai rău încă, ei își pot permite lor și altora să intre în situații îngrozitoare din cauza presupunerii că IA va fi simțitoare sau asemănătoare omului pentru a putea lua măsuri.

Nu antropomorfizați IA.

Dacă procedați astfel, veți fi prins într-o capcană de încredere lipicioasă și dură de a aștepta ca AI să facă lucruri pe care nu le poate realiza. Acestea fiind spuse, cea mai recentă IA generativă este relativ impresionantă pentru ceea ce poate face. Fiți conștienți de faptul că există limitări semnificative pe care ar trebui să le aveți în vedere în mod continuu atunci când utilizați orice aplicație AI generativă.

O ultimă avertizare deocamdată.

Indiferent ce vedeți sau citiți într-un răspuns AI generativ, asta pare pentru a fi transmis ca fiind pur faptice (date, locuri, oameni etc.), asigurați-vă că rămâneți sceptici și sunteți dispus să verificați din nou ceea ce vedeți.

Da, datele pot fi inventate, locurile pot fi inventate, iar elementele la care de obicei ne așteptăm să fie fără reproș sunt toate supus suspiciunilor. Nu credeți ceea ce citiți și păstrați un ochi sceptic atunci când examinați eseuri sau rezultate generative de AI. Dacă o aplicație generativă de inteligență artificială vă spune că Abraham Lincoln a zburat prin țară cu avionul său privat, ați ști fără îndoială că acest lucru este malarky. Din păcate, unii oameni s-ar putea să nu realizeze că avioanele cu avioane nu existau pe vremea lui sau s-ar putea să știe, dar să nu observe că eseul face această afirmație nespusă și scandalos de falsă.

O doză puternică de scepticism sănătos și o mentalitate persistentă de neîncredere vor fi cel mai bun atu al tău atunci când folosești IA generativă. De asemenea, aveți grijă la potențialele intruziuni în confidențialitate și la pierderea confidențialității datelor, vedeți discuția mea la linkul aici.

Suntem gata să trecem la următoarea etapă a acestei elucidări.

AI ca cea mai grozavă poveste spusă vreodată

Să facem acum o scufundare profundă în distorsiunile despre AI.

Mă voi concentra pe IA generativă. Acestea fiind spuse, aproape orice tip de IA este supus acelorași preocupări cu privire la publicitatea neloială sau înșelătoare. Țineți cont de această viziune mai largă. Spun asta celor care sunt producători de AI de orice fel, asigurându-mă că toți sunt la curent cu aceste aspecte și nu se limitează doar la cei care creează aplicații AI generative.

Același lucru este valabil pentru toți consumatorii. Indiferent de tipul de IA pe care ați putea să vă gândiți să cumpărați sau să utilizați, aveți grijă de afirmațiile false sau înșelătoare despre IA.

Iată principalele subiecte pe care aș dori să le abordez astăzi cu tine:

  • 1) Cine este ce din potențialele falsități ale AI
  • 2) Încercările de a utiliza clauze de evadare pentru a evita responsabilitatea AI
  • 3) FTC oferă cuvinte utile de precauție cu privire la publicitatea AI
  • 4) FTC oferă, de asemenea, cuvinte de avertizare despre prejudecățile AI
  • 5) Acțiunile pe care trebuie să le întreprindeți în legătură cu planurile dvs. de publicitate AI

Voi acoperi fiecare dintre aceste subiecte importante și voi oferi considerații perspicace la care toți ar trebui să le gândim cu atenție. Fiecare dintre aceste subiecte este o parte integrantă a unui puzzle mai mare. Nu te poți uita la o singură bucată. Nici nu poți privi nicio piesă separat de celelalte piese.

Acesta este un mozaic complicat și întregului puzzle trebuie să i se acorde o atenție armonioasă adecvată.

Cine este ce din potențialele falsități ale inteligenței artificiale

Trebuie făcută o clarificare importantă cu privire la diferiții actori sau părți interesate implicate în aceste chestiuni.

Există producătorii de AI care creează nucleul unei aplicații AI generative, iar apoi există alții care se bazează pe AI generativă pentru a crea o aplicație dependentă de AI generativă subiacentă. Am discutat despre modul în care utilizarea API (interfețe de programare a aplicațiilor) vă permite să scrieți o aplicație care folosește IA generativă, vedeți acoperirea mea la linkul aici. Un exemplu excelent include faptul că Microsoft a adăugat capabilități AI generative de la OpenAI la motorul lor de căutare Bing, așa cum am tratat în detaliu la linkul aici.

Potențialii vinovați de a face afirmații înșelătoare sau false despre AI pot include:

  • Cercetători AI
  • Dezvoltatori AI
  • Marketerii AI
  • Creatori de AI care dezvoltă AI de bază, cum ar fi AI generativă
  • Firme care utilizează IA generativă în ofertele lor de software
  • Firme care se bazează pe utilizarea IA generativă în produsele și serviciile lor
  • Firme care se bazează pe firme care utilizează IA generativă în produsele sau serviciile lor
  • Etc

S-ar putea să vedeți acest lucru ca pe un lanț de aprovizionare. Oricine este implicat în AI, pe măsură ce aceasta avansează pe calea sau mănușa AI concepută și pusă în aplicare, poate oferi cu ușurință afirmații înșelătoare sau frauduloase despre AI.

Cei care au creat IA generativă ar putea fi trăgători drepti și se dovedește că acei ceilalți care înglobează IA generativă în produsele sau serviciile lor sunt cei care devin diabolici și fac afirmații nefondate. Asta e o posibilitate.

O altă posibilitate este ca cei care fac AI să fie cei care fac afirmații false. Ceilalți care includ apoi IA generativă în produsele lor sunt probabil să repete acele afirmații. La un moment dat, ar putea apărea o mlaștină legală. Ar putea apărea o ciocnire juridică care vizează mai întâi firma care a repetat revendicările, dintre care ei, la rândul lor, ar arăta cu degetul legal către producătorul AI care a declanșat avalanșa revendicărilor. Dominourile încep să cadă.

Ideea este că firmele care cred că se pot baza pe pretențiile false ale altora sunt obligate să sufere o trezire grosolană că nu vor deveni neapărat scutite din cauza unei astfel de încredere. Și ei, fără îndoială, vor avea picioarele ținute de foc.

Când se împinge, toată lumea se blochează într-o luptă legală urâtă.

Încercările de a utiliza clauze de evadare pentru a evita responsabilitatea AI

Am menționat mai devreme că secțiunea 5 din Legea FTC oferă limbaj juridic despre practicile de publicitate ilegale. Există diverse lacune legale pe care orice avocat priceput le-ar folosi potențial în avantajul clientului său, probabil pe bună dreptate, dacă clientul ar încerca, de fapt, să răstoarne sau să îndepărteze ceea ce a considerat a fi o acuzație falsă.

Luați în considerare, de exemplu, această clauză din Secțiunea 5:

  • „Comisia nu va avea nicio autoritate, în temeiul acestei secțiuni sau al secțiunii 57a din prezentul titlu, să declare ilegale un act sau o practică pe motiv că un astfel de act sau practică este neloială, cu excepția cazului în care actul sau practica cauzează sau este susceptibil să cauzeze un prejudiciu substanțial consumatorilor, care este nu pot fi evitate în mod rezonabil de către consumatorii înșiși și nu sunt compensate de avantajele compensatorii pentru consumatori sau pentru concurență. Pentru a determina dacă un act sau o practică este neloială, Comisia poate considera politicile publice stabilite drept dovezi care trebuie luate în considerare împreună cu toate celelalte probe. Este posibil ca astfel de considerente de politică publică să nu servească drept bază principală pentru o astfel de determinare” (sursa: Secțiunea 5 din Legea FTC).

Unii au interpretat acea clauză pentru a sugera că, dacă spunem că o firmă își făcea publicitate IA și făcea acest lucru într-un mod aparent flagrant, se pune întrebarea dacă publicitatea a putut scăpa de purgatoriu atâta timp cât reclamele: (a) au eșuat. de a cauza „un prejudiciu substanțial consumatorilor”, (b) și a fost „evitat de consumatorii înșiși” și (c) „nu a fost compensat de avantajele compensatorii pentru consumatori sau pentru concurență”.

Imaginați-vă acest caz de utilizare. O firmă decide să susțină că inteligența lor generativă poate ajuta sănătatea ta mintală. Se pare că firma a creat o aplicație care încorporează IA generativă a unui producător popular de AI. Aplicația rezultată este prezentată ca fiind capabilă să „vă ajute să obțineți liniștea sufletească prin AI care interacționează cu dvs. și vă liniștește sufletul îndurerat”.

Ca o notă secundară, am discutat despre pericolele folosirii AI generative ca consilier pentru sănătate mintală, vezi analiza mea la linkul aici și linkul aici.

Înapoi la poveste. Să presupunem că un consumator se abona la IA generativă care se presupune că le poate ajuta sănătății mintale. Consumatorul spune că s-a bazat pe reclamele firmei care oferă aplicația AI. Dar, după ce a folosit AI, consumatorul crede că mental nu este mai bine decât înainte. Pentru ei, aplicația AI folosește publicitate înșelătoare și falsă.

Nu mă voi adânci în complexitățile legale și voi folosi pur și simplu acest lucru ca o folie la îndemână (consultați-vă avocatul pentru sfaturi juridice adecvate). În primul rând, a suferit consumatorul „rănire substanțială” ca urmare a utilizării aplicației AI? Un argument este că nu au suferit un prejudiciu „substanțial” și doar aparent nu au câștigat ceea ce credeau că vor câștiga (un contraargument este că aceasta constituie o formă de „prejudiciu substanțial” și așa mai departe). În al doilea rând, consumatorul ar fi putut evita în mod rezonabil orice astfel de prejudiciu dacă a apărut un prejudiciu? Apărarea presupusă este oarecum că consumatorul nu a fost cumva obligat să folosească aplicația AI și, în schimb, a ales în mod voluntar să facă acest lucru, plus că este posibil să fi folosit necorespunzător aplicația AI și, prin urmare, să submineze beneficiile anticipate etc. În al treilea rând, aplicația AI a fost posibil au o valoare sau un beneficiu suficient de substanțial pentru consumatori încât afirmația făcută de acest consumator este depășită în totalitatea acesteia?

Vă puteți aștepta ca mulți dintre producătorii de inteligență artificială și cei care își sporesc produsele și serviciile cu inteligență artificială vor afirma că, indiferent de ceea ce fac ofertele lor cu inteligență artificială sau infuzată cu inteligență artificială, ei oferă în general un beneficiu net societății prin încorporarea inteligenței artificiale. . Logica este că, în cazul în care produsul sau serviciul este altfel de folos consumatorilor, adăugarea de inteligență artificială crește sau întărește aceste beneficii. Prin urmare, chiar dacă există unele dezavantaje potențiale, avantajele copleșesc dezavantajele (presupunând că dezavantajele nu sunt de neconceput).

Am încredere că puteți vedea de ce avocații au nevoie din plin de cei care folosesc sau folosesc inteligența artificială.

FTC oferă cuvinte utile de precauție cu privire la publicitatea AI

Revenind la postarea de blog din 27 februarie 2023 a FTC, există câteva sugestii destul de utile făcute pentru a evita enigma în afara limitelor afirmațiilor publicitare AI.

Iată câteva puncte cheie sau întrebări ridicate în postarea pe blog:

  • „Exagerați ce poate face produsul dvs. AI?”
  • „Promiți că produsul tău AI face ceva mai bun decât un produs non-AI?”
  • „Sunteți conștient de riscuri?”
  • „Produsul chiar folosește AI?”

Să despachetăm pe scurt câteva dintre aceste întrebări ascuțite.

Luați în considerare cel de-al doilea punct cu marcatori despre produsele AI versus un produs non-AI considerat comparabil. Este atrăgător de atrăgător să faci reclamă că produsul tău cu AI este mult mai bun decât orice produs comparabil care nu este AI. Puteți face tot felul de fluturi sălbatice pe tot parcursul zilei, pur și simplu lăudând că, deoarece AI este inclusă în produsul dvs., trebuie să fie mai bine. Și anume, orice comparabil care nu folosește AI este în mod evident și inerent inferior.

Acest lucru aduce în discuție celebrul slogan legendar „Unde este carnea de vită?”

Accentul este că, dacă nu aveți ceva tangibil și substanțial care să susțină revendicarea, vă aflați pe un teren destul de zdruncinat și periclitat din punct de vedere legal. Ești pe nisipuri mișcătoare. Dacă sunteți solicitat, va trebui să prezentați o formă de dovadă suficientă sau adecvată că produsul adăugat AI este într-adevăr mai bun decât produsul non-AI, presupunând că faceți o astfel de afirmație. Această dovadă nu ar trebui să fie o afacere amestecată după fapt. Ați fi mai înțelept și mai sigur să aveți acest lucru în mână în prealabil, înainte de a face acele afirmații publicitare.

În teorie, ar trebui să puteți oferi o serie de dovezi rezonabile care să susțină o astfel de afirmație. Ați putea, de exemplu, să fi efectuat un sondaj sau o testare care îi implică pe cei care folosesc produsul dvs. adăugat cu inteligență artificială în comparație cu cei care folosesc un produs comparabil care nu este AI. Acesta este un preț mic de plătit pentru a putea face față unei penalități care se profilează pe drum.

Un alt avertisment este că nu faceți genul de eforturi neplăcute pentru a încerca să vă susțineți afirmațiile publicitare despre AI. Şansele sunt că, dacă oferiţi un studiu pe care l-aţi făcut despre utilizatorii AI versus utilizatorii care nu sunt AI, acesta va fi inspectat îndeaproape de alţi experţi implicaţi. Ei ar putea observa, de exemplu, că ați pus degetul mare pe scară în funcție de modul în care i-ați selectat pe cei care au fost chestionați sau testați. Sau poate doriți să plătiți utilizatorii care folosesc AI pentru a-i determina să prezinte cât de grozav este produsul dvs. Orice șmecherie este posibilă. Mă îndoiesc că vrei să intri dubla problema când se descoperă acele artificii furtive.

Trecând la unul dintre celelalte puncte marcate, luați în considerare cel de-al patrulea marcator care întreabă dacă AI este utilizat într-o anumită circumstanță.

Abordarea rapidă și murdară din zilele noastre constă în oportuniștii care optează pentru a eticheta orice tip de software ca fiind conținând sau constând din IA. Ar putea la fel de bine să se urce în vagonul AI, spun unii. Ei sunt oarecum capabili să scape cu asta, deoarece definiția AI este în general nebuloasă și variază pe scară largă, vezi acoperirea mea în Legea Bloomberg cu privire la problema juridică enervantă despre ce este IA linkul aici.

Confuzia asupra a ceea ce este AI va oferi potențial o acoperire de protecție, dar nu este impenetrabilă.

Iată ce menționează blogul FTC:

  • „Într-o investigație, tehnologii FTC și alții se pot uita sub capotă și pot analiza alte materiale pentru a vedea dacă ceea ce este în interior se potrivește cu afirmațiile tale.”

În acest sens, indiferent dacă utilizați sau nu „AI” pentru a respecta cu strictețe o alegere acceptată de definiție a AI, veți fi totuși ținut de afirmațiile făcute cu privire la ceea ce software-ul a fost proclamat că poate face.

Am apreciat acest comentariu adăugat care a urmat punctul de mai sus pe blogul FTC:

  • „Înainte de a vă eticheta produsul ca fiind alimentat de AI, rețineți, de asemenea, că simpla utilizare a unui instrument AI în procesul de dezvoltare nu este același lucru cu un produs care are AI în el.”

Acesta este un punct subtil pe care mulți nu l-ar fi luat în considerare altfel. Iată ce sugerează. Uneori, s-ar putea să utilizați o piesă de software îmbunătățită cu AI atunci când dezvoltați o aplicație. Aplicația vizată reală nu va conține AI. Pur și simplu utilizați AI pentru a vă ajuta să creați aplicația AI.

De exemplu, puteți utiliza ChatGPT pentru a genera cod de programare pentru dvs. Codul care este produs nu va avea neapărat componente AI în el. Aplicația dvs. nu va fi eligibilă în mod rezonabil să pretindă că conține AI în sine (cu excepția cazului în care, desigur, alegeți să includeți o formă de tehnici sau tehnologie AI în ea). Ați putea spune că ați folosit AI pentru a ajuta la scrierea programului. Chiar și acest lucru trebuie spus cu atenție și precauție.

FTC oferă, de asemenea, cuvinte de avertizare despre prejudecățile AI

Blogul FTC pe care l-am menționat aici pe tema prejudecăților AI oferă câteva avertismente utile pe care cred că merită să le ținem cont (le voi enumera într-un moment).

Când vine vorba de IA generativă, există patru preocupări majore cu privire la capcanele capacităților actuale:

  • Erori
  • falsurile
  • AI Halucinații
  • Prejudecățile

Să aruncăm o scurtă privire asupra preocupărilor legate de AI.

Iată lista mea extinsă de căi de părtinire care trebuie explorate pe deplin pentru toate implementările AI generative (discutate îndeaproape la linkul aici):

  • Prejudecăți în datele obținute de pe Internet care au fost utilizate pentru antrenamentul de date al IA generativă
  • Prejudecăți în algoritmii generativi de inteligență artificială utilizați pentru potrivirea modelelor pe datele obținute
  • Prejudecăți în proiectarea generală a IA a IA generativă și a infrastructurii sale
  • Prejudecățile dezvoltatorilor de IA fie implicit sau explicit în modelarea AI generativă
  • Prejudecăți ale testerilor AI fie implicit sau explicit în testarea IA generativă
  • Prejudecăți ale RLHF (învățare prin întărire prin feedback uman), fie implicit sau explicit, de către evaluatorii umani desemnați, care oferă îndrumări de formare AI generative
  • Prejudecăți ale facilitării câmpului AI pentru utilizarea operațională a IA generativă
  • Prejudecăți în orice configurare sau instrucțiuni implicite stabilite pentru IA generativă în utilizarea zilnică
  • Prejudecăți cuprinse intenționat sau din neatenție în solicitările introduse de utilizatorul AI generativ
  • Prejudecăți ale unei stări sistemice față de o apariție ad-hoc ca parte a generării aleatorii probabilistice de către IA generativă
  • Prejudecăți care apar ca urmare a ajustărilor din mers sau în timp real sau a antrenamentului de date care au loc în timp ce IA generativă este în utilizare activă
  • Prejudecăți introduse sau extinse în timpul întreținerii sau întreținerii AI a aplicației AI generative și a codificării sale de potrivire a modelelor
  • Altele

După cum puteți vedea, există o mulțime de moduri în care prejudecățile nejustificate se pot strecura în dezvoltarea și dezvoltarea IA. Acesta nu este un fel de îngrijorare unică. Asamăn asta cu o situație de zguduială. Trebuie să fii diligent și să încerci în orice moment să descoperi și să elimini sau să atenuezi părtinirile AI din aplicațiile tale AI.

Luați în considerare aceste puncte judicioase prezentate în blogul FTC din 19 aprilie 2021 (aceste puncte încă se aplică, indiferent de vechi în ceea ce privește intervalele de timp de avansare a AI):

  • „Începe cu fundația potrivită”
  • „Atenție la rezultatele discriminatorii”
  • „Acceptați transparența și independența”
  • „Nu exagera ce poate face algoritmul tău sau dacă poate oferi rezultate corecte sau imparțiale”
  • „Spune adevărul despre cum folosești datele”
  • „Fă mai mult bine decât rău”
  • „Trageți-vă la răspundere – sau fiți gata ca FTC să o facă pentru dvs.”

Unul dintre punctele mele preferate dintre punctele de mai sus este cel de-al patrulea enumerat, care se referă la afirmația sau mitul des folosită că, datorită încorporării AI, o anumită aplicație trebuie să fie imparțială.

Iată cum merge.

Știm cu toții că oamenii sunt părtinitori. Cădem cumva în capcana mentală că mașinile și AI sunt capabile să fie imparțial. Astfel, dacă ne aflăm într-o situație în care putem alege între folosirea unui om față de AI atunci când căutăm o formă de serviciu, am putea fi tentați să folosim AI. Speranța este că AI nu va fi părtinitoare.

Această speranță sau presupunere poate fi întărită dacă creatorul sau jucătorul AI proclamă că AI-ul lor este fără îndoială și indiscutabil imparțial. Aceasta este cireașa reconfortantă de pe tort. Suntem deja gata să fim conduși pe calea acelui primrose. Publicitatea încheie afacerea.

Problema este că nu există nicio asigurare specială că IA este imparțială. Creatorul AI sau jucătorul AI ar putea minți în legătură cu prejudecățile AI. Dacă acest lucru pare excesiv de nefast, să considerăm că producătorul AI sau jucătorul AI ar putea să nu știe dacă AI-ul lor are sau nu părtiniri, dar ei decid oricum să facă o astfel de afirmație. Pentru ei, aceasta pare o afirmație rezonabilă și așteptată.

Blogul FTC a indicat acest exemplu revelator: „De exemplu, să presupunem că un dezvoltator de inteligență artificială le spune clienților că produsul său va oferi „decizii de angajare 100% imparțial”, dar algoritmul a fost construit cu date care nu aveau diversitatea rasială sau de gen. Rezultatul poate fi înșelăciune, discriminare și o acțiune de aplicare a legii FTC” (ibid).

Acțiunile pe care trebuie să le întreprindeți în legătură cu planurile dvs. de publicitate AI

Companiile se vor băga uneori în potențial apă caldă, deoarece o parte nu știe ce face cealaltă parte.

În multe companii, odată ce o aplicație AI este gata pentru a fi lansată, echipa de marketing va primi puține informații despre ceea ce face aplicația AI. Linia clasică este că detaliile AI sunt chiar deasupra capului lor și nu sunt suficient de pricepuți la tehnologie pentru a le înțelege. În acest decalaj vine și potențialul de publicitate neobișnuită cu inteligență artificială. Specialiștii în marketing fac tot ce pot, pe baza oricăror bucăți sau informații care le sunt împărtășite.

Nu spun că partea de marketing a fost păcălită. Doar că există adesea un decalaj între partea de dezvoltare a AI a casei și partea de marketing. Desigur, există ocazii când echipa de marketing este practic păcălită. Dezvoltatorii AI s-ar putea lăuda cu capacitățile AI supraumane proclamate, pentru care marketerii nu au, probabil, nicio modalitate semnificativă de a respinge sau de a-și exprima precauția. Putem lua în considerare și alte permutări calamitoase. S-ar putea ca dezvoltatorii AI să fi fost sinceri cu privire la limitările AI, dar partea de marketing a optat să adauge puțin sucul exagerând ceea ce poate face AI. Știi cum e, acei tehnicieni AI pur și simplu nu înțeleg ce este nevoie pentru a vinde ceva.

Cineva trebuie să fie arbitru și să se asigure că cele două departamente oarecum disparate au o întâlnire adecvată a minții. Publicitatea concepută va trebui să se bazeze pe baze pe care dezvoltatorii AI ar trebui să poată oferi dovezi sau dovezi. În plus, dacă dezvoltatorii AI sunt pătrunși de iluzii și beau deja AI Kool-Aid, acest lucru trebuie identificat, astfel încât echipa de marketing să nu fie orbită de noțiuni prea optimiste și nefondate.

În unele firme, rolul a Ofițer șef AI a fost prezentată ca o posibilă conexiune pentru a se asigura că echipa executivă de la cele mai înalte niveluri ia în considerare modul în care AI poate fi utilizată în cadrul companiei și ca parte a produselor și serviciilor companiei. Acest rol, de asemenea, sperăm să servească la reunirea părții AI a casei și partea de marketing a casei, frecându-se cu șeful de marketing sau Chief Marketing Officer (CMO). Vezi discuția mea despre acest rol emergent, la linkul aici.

Un alt rol foarte important trebuie inclus în aceste chestiuni.

Latura legală a casei este la fel de crucială. Un Chief Legal Officer (CLO) sau un consilier principal sau un consilier extern ar trebui să fie implicat în aspectele AI pe parcursul dezvoltării, implementării și marketingului AI. Din păcate, echipa juridică este adesea ultima care știe despre astfel de eforturi de AI. O firmă care primește o notificare legală ca urmare a unui proces sau a unei investigații a unei agenții federale își va da brusc seama că poate oamenii din domeniul juridic ar trebui să fie implicați în implementările lor de AI.

O abordare mai inteligentă este să includeți echipa juridică înainte ca calul să iasă din hambar. Cu mult înainte ca calul să iasă din hambar. Mult, mult mai devreme. Pentru acoperirea mea despre AI și practicile legale, consultați linkul aici și linkul aici, De exemplu.

O postare online recentă intitulată „Riscurile vânzării excesive a IA: The FTC Is Watching” de către firma de avocatură Debevoise & Plimpton (o firmă de avocatură internațională recunoscută la nivel mondial, cu sediul în New York), scrisă de Avi Gesser, Erez Liebermann, Jim Pastore, Anna R. Gressel, Melissa Muse, Paul D. Rubin, Christopher S. Ford, Mengyi Xu și cu o dată publicată de 6 martie 2023, oferă o indicație deosebit de perspicace asupra acțiunilor pe care firmele ar trebui să le întreprindă în legătură cu eforturile lor de IA.

Iată câteva fragmente selectate din postarea pe blog (postarea completă este la linkul aici):

  • „1. Definiție AI. Luați în considerare crearea unei definiții interne a ceea ce poate fi caracterizat în mod corespunzător drept IA, pentru a evita acuzațiile conform cărora Compania susține în mod fals că un produs sau serviciu utilizează inteligența artificială, atunci când folosește doar un algoritm sau un model simplu non-AI.”
  • „2. Inventar. Luați în considerare crearea unui inventar al declarațiilor publice despre produsele și serviciile AI ale companiei.”
  • „3. Educaţie: Educați-vă echipele de conformitate cu marketingul cu privire la îndrumările FTC și la problemele legate de definiția AI.”
  • „4. Review: Luați în considerare un proces de revizuire a tuturor declarațiilor publice actuale și propuse despre produsele și serviciile AI ale companiei, pentru a vă asigura că acestea sunt exacte, pot fi fundamentate și nu exagerați sau promite exagerat.”
  • „5. Revendicările furnizorilor: Pentru sistemele AI care sunt furnizate companiei de către un furnizor, aveți grijă să nu repetați doar afirmațiile furnizorului cu privire la sistemul AI fără a asigura acuratețea acestora.”
  • „6. Evaluări ale riscurilor: Pentru aplicațiile AI cu risc ridicat, companiile ar trebui să ia în considerare efectuarea de evaluări de impact pentru a determina riscurile previzibile și cum să le atenueze cel mai bine, apoi să ia în considerare dezvăluirea acelor riscuri în declarații externe despre aplicațiile AI.”

Fiind un director executiv de top și CIO/CTO global, știu cât de importantă este echipa juridică pentru dezvoltarea și implementarea sistemelor AI interne și externe, inclusiv atunci când acordați licențe sau achiziționați pachete software de la terți. Mai ales cu eforturile AI. Echipa juridică trebuie să fie încorporată sau cel puțin considerată un aliat apropiat și dragut al echipei de tehnologie. Există o multitudine de mine terestre legale legate de orice tehnologie și, în mod semnificativ, pentru AI pe care o firmă decide să le construiască sau să le adopte.

AI se află în prezent în fruntea listei potențialelor mine terestre legale.

Îmbinarea tehnicienilor AI cu guru de marketing și cu avocații juridici este cea mai bună șansă pe care o aveți de a face lucrurile corect. Reunește-le pe toate trei, în mod continuu și nu întârziat sau o singură dată, astfel încât să își poată găsi o strategie de marketing și publicitate și o implementare care să obțină beneficiile implementării AI. Scopul este de a minimiza spectrul brațului lung al legii și al proceselor costisitoare și dăunătoare reputației, maximizând în același timp recunoștința adecvată și echilibrată pe care AI o oferă în mod substanțial.

Principiul Goldilocks se aplică AI. Vrei să spui că AI poate face lucruri grozave, presupunând că poate și face, susținut în mod demonstrabil de dovezi și dovezi bine concepute. Nu doriți să evitați din neatenție orice adaugă AI ca valoare. Acest lucru subminează proprietățile aditivului AI. Și, la cealaltă extremă, cu siguranță nu doriți să faceți reclame lăudăroși care să iasă din fire și să facă pretenții nefaste și deschise la încurcături legale.

Supa trebuie să fie exact la temperatura potrivită. Pentru a realiza acest lucru, este nevoie de bucătari pricepuți și pricepuți la inteligența artificială din echipa de tehnologie, echipa de marketing și echipa juridică.

Într-o postare recentă a firmei de avocatură Arnold & Porter (o firmă de avocatură multinațională binecunoscută cu sediul central în Washington, DC), Isaac E. Chao și Peter J. Schildkraut au scris un articol intitulat „FTC Warns: All You Need To Know About AI pe care ai învățat-o la grădiniță” (data publicată din 7 martie 2023, disponibil la linkul aici), și a pus acest accent crucial de precauție cu privire la răspunderile legale asociate cu utilizarea AI:

  • „Pe scurt, nu fi atât de luat de magia AI încât să uiți elementele de bază. Publicitatea înșelătoare expune o companie la răspundere în temeiul legilor federale și de stat privind protecția consumatorilor, multe dintre acestea permitând drepturi private de acțiune în plus față de aplicarea guvernului. Clienții induși în eroare – în special cei B2B – ar putea solicita, de asemenea, despăgubiri în baza diferitelor teorii contractuale și delictuale. Și companiile publice trebuie să-și facă griji cu privire la afirmațiile SEC sau ale acționarilor conform cărora afirmațiile nesusținute au fost semnificative.”

Realizați că, chiar dacă AI-ul dvs. nu vizează consumatorii, nu sunteți axiomatic dezactivat în ceea ce privește potențialele expuneri legale. Clienții care sunt companii pot decide și că AI-ul tău pretinde că i-a indus în eroare în mod fals sau, poate, în mod fraudulos. Pot apărea tot felul de pericole legale.

Concluzie

Mulți oameni așteaptă să vadă ce dezamăgire legată de publicitatea AI se ridică din frenezia AI existentă și în creștere. Unii cred că avem nevoie de un exemplar de calibru Volkswagen sau de un arhetip de statură L'Oréal pentru a-i face pe toată lumea să realizeze că cazurile de afirmații scandalos de nefondate despre AI nu vor fi tolerate.

Până când o problemă legală suficient de mare cu privire la o publicitate AI în afara limitelor va primi o atenție larg răspândită pe rețelele de socializare și în știrile de zi cu zi, îngrijorarea este că bonanza cu AI care se laudă va persista. Marketingul AI va continua să urce pe scara extravagantei. Din ce în ce mai sus merge asta. Fiecare IA următoare va trebui să facă o performanță superioară a celor dinainte.

Sfatul meu este că probabil că nu vrei să fii arhetipul și să aterizezi în cărțile de istorie pentru că ai fost prins cu mâna în borcanul de prăjituri cu AI. Nu o privire bună. Costitor. Posibil ar putea ruina afacerea și carierele asociate.

Vei fi prins?

Îți îndemn ca, dacă ești atent la ceea ce faci, să fii prins nu va fi o îngrijorare de coșmar, deoarece vei fi făcut diligența corespunzătoare și vei putea dormi liniștit cu capul așezat pe pernă.

Pentru cei dintre voi care nu sunt dispuși să urmeze acel sfat, voi lăsa ultimul cuvânt pentru această remarcă ușoară de avertizare pe blogul FTC din 27 februarie 2023: „Orice poate sau nu poate face, AI este importantă, la fel și afirmațiile pe care le faci despre asta. Nu aveți nevoie de o mașină pentru a prezice ce ar putea face FTC atunci când aceste afirmații nu sunt susținute.”

Ei bine, presupun că s-ar putea folosi AI pentru a vă ajuta să evitați publicitatea ilegală AI, dar aceasta este o poveste pentru altă zi. Nu uitați să fiți atent și sincer cu privire la AI. Asta și asigurați-vă că aveți cei mai buni beagles juridici care oferă cu strident înțelepciunea lor juridică devotată în aceste chestiuni.

Sursa: https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims- despre-generative-ai-chatgpt-și-alte-ai-avertizează-ai-etica-și-ai-law/