Experții în inteligență artificială semnează un document care compară riscul de „extincție din IA” cu pandemii, război nuclear

Zeci de experți în inteligență artificială (AI), inclusiv directorii generali ai OpenAI, Google DeepMind și Anthropic, au semnat recent o declarație deschisă publicată de Centrul pentru Siguranța Inteligenței Artificiale (CAIS). 

Declarația conține o singură propoziție:

„Atenuarea riscului de dispariție din cauza IA ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear.”

Printre semnatarii documentului se numără un adevărat „cine este cine” dintre luminați AI, inclusiv „Nașul” AI, Geoffrey Hinton; Universitatea din California, Stuart Russell din Berkeley; și Lex Fridman de la Massachusetts Institute of Technology. Muzicianul Grimes este, de asemenea, un semnatar, enumerat în categoria „alte figuri notabile”.

Related: Muzicianul Grimes dorește să „împartă 50% din redevențe” cu muzica generată de AI

Deși declarația poate părea inofensivă la suprafață, mesajul de bază este unul oarecum controversat în comunitatea AI.

Un număr aparent tot mai mare de experți consideră că tehnologiile actuale pot sau vor duce inevitabil la apariția sau dezvoltarea unui sistem AI capabil să reprezinte o amenințare existențială pentru specia umană.

Opiniile lor sunt însă contracarate de un contingent de experți cu opinii diametral opuse. Omul de știință AI-șef meta Yann LeCun, de exemplu, a remarcat în numeroase ocazii că nu crede neapărat că IA va deveni incontrolabilă.

Pentru el și pentru alții care nu sunt de acord cu retorica „extincției”, precum Andrew Ng, co-fondator al Google Brain și fost om de știință șef la Baidu, AI nu este problema, ci răspunsul.

Pe de altă parte a argumentului, experți precum Hinton și CEO-ul Conjecture Connor Leahy cred că AI la nivel uman este inevitabil și, ca atare, momentul să acționăm este acum.

Cu toate acestea, nu este clar ce acțiuni cer semnatarii declarației. Directorii executivi și/sau șefii de AI pentru aproape fiecare companie importantă de IA, precum și oameni de știință renumiți din întreaga mediul academică, sunt printre cei care au semnat, ceea ce face evident că intenția nu este de a opri dezvoltarea acestor sisteme potențial periculoase.

La începutul acestei luni, CEO-ul OpenAI, Sam Altman, unul dintre semnatarii declarației menționate mai sus, și-a făcut prima apariție în fața Congresului în timpul unei audieri la Senat pentru a discuta despre reglementarea AI. Mărturia sa a făcut titluri după ce și-a petrecut cea mai mare parte îndemnând parlamentarii să-și reglementeze industria.

Altman's Worldcoin, un proiect care combină criptomoneda și dovada personalității, a făcut, de asemenea, o rundă în presă, după ce a strâns 115 milioane USD în finanțare din seria C, ducând finanțarea totală după trei runde la 240 milioane USD.

Sursa: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war