Senatorii îl întreabă pe CEO-ul Meta Zuckerberg cu privire la „scurgerea” modelului LLaMA AI

Two Senators Cross îl întreabă pe Zuckerberg despre scurgerea modelului LLaMA AI și îl acuză pe meta că nu respectă măsurile de securitate. Meta a fost chestionată cu privire la politicile sale de securitate și măsurile preventive.

Meta va fi responsabil pentru „scurgere”

Recent, modelul revoluționar de limbă mare al Meta, LLaMA, a fost divulgat și au fost ridicate preocupări pentru același lucru. Senatorul Richard Blumenthal (D-CT), președintele Subcomitetului Senatului pentru confidențialitate, tehnologie și lege, și Josh Hawley (R-MO), membru de rang au scris o scrisoare care a ridicat întrebări cu privire la scurgerea Modelului AI. 

Senatorii se tem că această scurgere ar putea duce la diverse infracțiuni cibernetice, cum ar fi spam, fraudă, programe malware, încălcări ale confidențialității, hărțuire și alte fapte și vătămări. Se ridică multe întrebări și doi politicieni sunt profund interesați de sistemul de securitate al lui Meta. Ei au întrebat ce procedură a fost urmată pentru a evalua riscul înainte de lansarea LLaMA. Ei au spus că sunt foarte dornici să înțeleagă politicile și practicile care sunt în vigoare pentru a preveni abuzul modelului în disponibilitatea acestuia.

Pe baza răspunsurilor lui Meta la întrebările lor, senatorii l-au acuzat pe Meta de cenzură necorespunzătoare și de faptul că nu are suficiente măsuri de securitate pentru model. ChatGPT de la Open AI respinge unele dintre solicitări pe baza eticii și a liniilor directoare. De exemplu, atunci când ChatGPT i se cere să scrie o scrisoare în numele fiului cuiva și să ceară niște bani pentru a ieși dintr-o situație dificilă, va respinge cererea. Pe de altă parte, LLaMA va îndeplini cererea și va genera scrisoarea. De asemenea, va completa cererile care implică autovătămare, criminalitate și antisemitism.

Este foarte important să înțelegeți caracteristicile variate și unice ale LLaMA. Nu este doar distinct, ci și unul dintre cele mai extinse modele de limbaj mari până în prezent. Aproape fiecare LLM necenzurat care este popular astăzi se bazează pe LLaMA. Este extrem de sofisticat și precis pentru un model open-source. Exemple de LLM-uri bazate pe LLaMA sunt Stanford's Alpaca, Vicuna etc. LLaMA a jucat un rol important în a face LLM-urile ceea ce sunt astăzi. LLaMA este responsabil pentru evoluția chatbot-urilor cu utilitate redusă către moduri reglate fin.

LLaMA a fost lansat în februarie. Potrivit senatorilor, Meta a permis cercetătorilor să descarce modelul, dar nu a luat măsuri de securitate precum centralizarea sau restricționarea accesului. Controversa a apărut când modelul complet al LLaMA a apărut pe BitTorrent. Acest lucru a făcut ca modelul să fie accesibil oricui și tuturor. Acest lucru a condus la un compromis în ceea ce privește calitatea modelului AI și a ridicat probleme cu privire la utilizarea greșită a acestuia. 

La început, senatorii nici măcar nu erau siguri dacă a existat vreo „scurgere”. Dar problemele au apărut atunci când internetul a fost inundat de dezvoltări ale inteligenței artificiale care au fost lansate de startup-uri, colective și academicieni. Scrisoarea menționează că Meta trebuie să fie responsabilă pentru potențialul abuz al LLaMA și trebuie să fi avut grijă de protecții minime înainte de lansare.

Meta a pus greutățile LLaMA la dispoziția cercetătorilor. Din păcate, aceste ponderi s-au scurs, ceea ce a permis accesul global pentru prima dată.

Ultimele postări de Ritika Sharma (Vezi toate)

Sursa: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/