Zeci de experți în inteligență artificială (AI), inclusiv directorii generali ai OpenAI, Google DeepMind și Anthropic, au semnat recent o declarație deschisă publicată de Centrul pentru Siguranța Inteligenței Artificiale (CAIS).
Tocmai am lansat o declarație:
„Atenuarea riscului de dispariție din cauza IA ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear.”
Semnatarii includ Hinton, Bengio, Altman, Hassabis, Song etc.https://t.co/N9f6hs4bpa
(1 / 6)
— Dan Hendrycks (@DanHendrycks) 30 Mai, 2023
Declarația conține o singură propoziție:
„Atenuarea riscului de dispariție din cauza IA ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear.”
Printre semnatarii documentului se numără un adevărat „cine este cine” dintre luminați AI, inclusiv „Nașul” AI, Geoffrey Hinton; Universitatea din California, Stuart Russell din Berkeley; și Lex Fridman de la Massachusetts Institute of Technology. Muzicianul Grimes este, de asemenea, un semnatar, enumerat în categoria „alte figuri notabile”.
Related: Muzicianul Grimes dorește să „împartă 50% din redevențe” cu muzica generată de AI
Deși declarația poate părea inofensivă la suprafață, mesajul de bază este unul oarecum controversat în comunitatea AI.
Un număr aparent tot mai mare de experți consideră că tehnologiile actuale pot sau vor duce inevitabil la apariția sau dezvoltarea unui sistem AI capabil să reprezinte o amenințare existențială pentru specia umană.
Opiniile lor sunt însă contracarate de un contingent de experți cu opinii diametral opuse. Omul de știință AI-șef meta Yann LeCun, de exemplu, a remarcat în numeroase ocazii că nu crede neapărat că IA va deveni incontrolabilă.
Inteligența artificială supraumană nu se află nici pe departe în fruntea listei riscurilor existențiale.
În mare parte pentru că nu există încă.Până când vom avea un design de bază chiar și pentru IA la nivel de câine (darămite la nivel uman), este prematur să discutăm despre cum să îl facem în siguranță. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) 30 Mai, 2023
Pentru el și pentru alții care nu sunt de acord cu retorica „extincției”, precum Andrew Ng, co-fondator al Google Brain și fost om de știință șef la Baidu, AI nu este problema, ci răspunsul.
Pe de altă parte a argumentului, experți precum Hinton și CEO-ul Conjecture Connor Leahy cred că AI la nivel uman este inevitabil și, ca atare, momentul să acționăm este acum.
Șefii tuturor laboratoarelor majore de IA au semnat această scrisoare, recunoscând în mod explicit riscul de dispariție din cauza AGI.
Un pas incredibil înainte, felicitări lui Dan pentru munca sa incredibilă în realizarea acestui lucru și mulțumesc fiecărui semnatar pentru că și-au făcut partea pentru un viitor mai bun! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) 30 Mai, 2023
Cu toate acestea, nu este clar ce acțiuni cer semnatarii declarației. Directorii executivi și/sau șefii de AI pentru aproape fiecare companie importantă de IA, precum și oameni de știință renumiți din întreaga mediul academică, sunt printre cei care au semnat, ceea ce face evident că intenția nu este de a opri dezvoltarea acestor sisteme potențial periculoase.
La începutul acestei luni, CEO-ul OpenAI, Sam Altman, unul dintre semnatarii declarației menționate mai sus, și-a făcut prima apariție în fața Congresului în timpul unei audieri la Senat pentru a discuta despre reglementarea AI. Mărturia sa a făcut titluri după ce și-a petrecut cea mai mare parte îndemnând parlamentarii să-și reglementeze industria.
Altman's Worldcoin, un proiect care combină criptomoneda și dovada personalității, a făcut, de asemenea, o rundă în presă, după ce a strâns 115 milioane USD în finanțare din seria C, ducând finanțarea totală după trei runde la 240 milioane USD.
Sursa: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war