Etica IA și legea AI ar putea fi îndemnate și determinate să impună avertismente de siguranță pentru toate AI existente și viitoare

Activitățile tale zilnice sunt, fără îndoială, bombardate cu o mie sau mai multe avertismente de precauție de un fel sau altul.

Încercați acestea pentru dimensiune:

  • Ochelarii de protecție trebuie purtați în permanență
  • Pericol: Produse chimice periculoase în apropiere
  • Tensiune înaltă – Țineți afară
  • Avertisment: fiți conștienți de împrejurimile dvs
  • Obiectele din oglindă sunt mai aproape decât par
  • Scoateți copilul înainte de pliere (așa cum este menționat pe cărucioarele pentru copii)
  • Atenție: Asigurați-vă că ignorați acest mesaj

Cele mai multe dintre acestea sunt semne sau etichete la îndemână și cu totul atente care servesc să ne mențină în siguranță și în siguranță.

Vă rugăm să fiți conștienți de faptul că am strecurat câteva „outliers” pe listă pentru a face câteva puncte demne de remarcat.

De exemplu, unii oameni cred că este neplăcut că cărucioarele pentru copii au o etichetă aplicată care vă avertizează să nu pliați căruciorul în timp ce copilul este încă așezat în dispozitiv. Deși semnul este cu siguranță adecvat și util, s-ar părea că bunul simț de bază ar fi deja suficient.

Ce persoană nu și-ar da seama, din propria voință, că trebuie mai întâi să scoată copilul?

Ei bine, alții subliniază că astfel de etichete au un scop important. În primul rând, cineva ar putea fi cu adevărat uitat că trebuie să scoată copilul înainte de a plia căruciorul. Poate că persoana a presupus că căruciorul a fost proiectat cu inteligență pentru a se asigura că operația de pliere nu va dăuna copilului. Sau, eventual, există caracteristici de siguranță încorporate care împiedică plierea ori de câte ori există un copil în cărucior. etc.

De asemenea, s-ar putea ca persoana să fi fost distrasă și să fi pliat fără minte căruciorul, cuprinzând copilul și tot, dar, din fericire, eticheta a determinat persoana să nu facă acest lucru (unii ar susține că pare puțin probabil ca o astfel de persoană să observe eticheta). oricum). Există și faptul că cineva ar putea da în judecată producătorul căruciorului dacă nu ar fi prezentă o astfel de etichetă. Vă puteți imagina unul dintre acele procese grele prin care un copil a fost rănit și părintele a decis să strângă un milion de dolari, deoarece căruciorului nu avea un semn de avertizare afișat pe el. Compania de cărucioare ar regreta că nu a cheltuit cei câțiva cenți necesari pentru a face și lipi semnele de avertizare pe cărucioarele lor.

Aruncă o privire atentă și asupra ultimelor mesaje de avertizare pe care le-am enumerat mai sus.

Am ales să plasez mesajul smarmy despre a ne asigura că ignor mesajul, deoarece există multe etichete de avertizare false pe care oamenii le cumpără sau le fac doar pentru distracție în aceste zile. Acesta este un adevărat minte filosofic. Dacă citiți avertismentul care spune să ignorați avertismentul, ce trebuie să faceți exact după ce ați citit avertismentul? L-ai citit deja, așa că este aparent în mintea ta. Sigur, îl poți ignora, dar din nou, nu ești deloc sfătuit cu privire la ceea ce ar trebui să ignori. Rond și rotund, gluma asta merge.

Desigur, etichetele de avertizare de bună credință nu sunt de obicei de natură glumă sau plină de umor.

Ar trebui să luăm avertismentele destul de în serios.

De obicei, dacă nu respecți un avertisment notat, o faci cu un risc personal grav. Și, s-ar putea, de asemenea, că, dacă nu respectați și nu respectați avertismentul, îi veți expune și pe alții la un risc nejustificat. Luați în considerare fapta de a conduce o mașină. În momentul în care te afli la volanul unei mașini, acțiunile tale în calitate de șofer te pot face rău, în plus, poți face rău pasagerilor tăi și poți face rău altora, cum ar fi oamenii din alte mașini sau pietonii din apropiere. În acest sens, un avertisment nu este numai în beneficiul tău, ci este probabil și în beneficiul altora.

De ce acopăr aceste fațete ale avertismentelor și etichetelor de avertizare?

Pentru că unii afirmă cu vehemență că avem nevoie de semne de avertizare și de avertizare privind inteligența artificială (IA) de astăzi.

De fapt, ideea este de a pune astfel de etichete pe AI de astăzi și pe AI viitoare. Una peste alta, toată IA ar ajunge să aibă o formă sau o variantă de avertizare sau indicație de avertizare asociată cu aceasta.

Idee bună sau idee proastă?

Practic sau nepractic?

Să mergem mai departe și să despachetăm concepția și să vedem ce putem face din ea.

Aș dori mai întâi să pun o bază esențială despre AI și în special despre Etica AI și Legea AI, făcând acest lucru pentru a mă asigura că subiectul avertismentelor AI va fi sensibil din punct de vedere contextual. Pentru cei dintre voi interesați în general de IA etică și, de asemenea, de Legea AI, vedeți acoperirea mea extinsă și continuă la linkul aici și linkul aici, Doar pentru a numi câteva.

Creșterea gradului de conștientizare a IA etică și, de asemenea, a legii AI

Era recentă a AI a fost inițial privită ca fiind AI pentru bine, ceea ce înseamnă că am putea folosi AI pentru îmbunătățirea umanității. Pe tocuri de AI pentru bine ne-am dat seama că suntem și noi cufundați AI pentru rău. Aceasta include IA care este concepută sau auto-modificată pentru a fi discriminatorie și face alegeri computaționale care imbunătățesc părtiniri nejustificate. Uneori, IA este construită în acest fel, în timp ce în alte cazuri se îndreaptă spre acel teritoriu neplăcut.

Vreau să mă asigur din plin că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am vrea să speculăm în mod sălbatic despre IA sensibilă, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea IA super-inteligentă, este de imaginat că o astfel de IA ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Aș sugera cu tărie să menținem lucrurile cu picioarele pe pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

Fiți foarte atenți la antropomorfizarea IA de astăzi.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Toate acestea au implicații semnificative de etică AI și oferă o fereastră utilă către lecțiile învățate (chiar înainte ca toate lecțiile să se întâmple) atunci când vine vorba de încercarea de a legifera AI.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. Ei avertizează că, dacă adoptăm unele dintre aceste legi privind IA, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense.

În coloanele anterioare, am acoperit diferitele eforturi naționale și internaționale de a elabora și a adopta legi care reglementează IA, vezi linkul aici, de exemplu. Am tratat, de asemenea, diferitele principii și linii directoare ale eticii IA pe care diferitele națiuni le-au identificat și adoptat, inclusiv, de exemplu, efortul Națiunilor Unite, cum ar fi setul UNESCO de etică IA pe care aproape 200 de țări l-au adoptat, vezi linkul aici.

Iată o listă de temelie utilă a criteriilor sau caracteristicilor AI etice privind sistemele AI pe care le-am explorat anterior îndeaproape:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Se presupune că acele principii de etică AI sunt utilizate cu seriozitate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI.

Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a subliniat anterior aici, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

De asemenea, am examinat recent Declarația drepturilor AI care este titlul oficial al documentului oficial al guvernului SUA intitulat „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, care a fost rezultatul unui efort de un an al Oficiului pentru Politică în Știință și Tehnologie (OSTP). ). OSTP este o entitate federală care servește să consilieze președintele american și biroul executiv al SUA cu privire la diferite aspecte tehnologice, științifice și de inginerie de importanță națională. În acest sens, puteți spune că această Declarație a drepturilor AI este un document aprobat și susținut de Casa Albă a SUA existentă.

În Bill of Rights AI, există cinci categorii cheie:

  • Sisteme sigure și eficiente
  • Protecții de discriminare algoritmică
  • confidențialitatea datelor
  • Observație și explicație
  • Alternative umane, considerație și rezervă

Am analizat cu atenție acele precepte, vezi linkul aici.

Acum că am pus o bază utilă pe aceste subiecte legate de Etica AI și Legea AI, suntem gata să trecem la subiectul amețitor dacă AI ar trebui sau nu să aibă etichete de avertizare.

Pregătește-te pentru o călătorie informativă care vă deschide ochii.

Punerea etichetelor de avertizare pe inteligența artificială ca mijloc de protecție a omenirii

Există un zgomot tot mai mare că poate că AI ar trebui să vină cu un avertisment de vreun fel.

De exemplu, într-un articol recent în MIT Technology Review care a discutat despre interesul în creștere pentru efectuarea de audituri ale AI, a apărut ideea de a furniza semne de avertizare: „Creșterea acestor audituri sugerează că într-o zi am putea vedea avertismente în stil pachet de țigări că sistemele AI vă pot dăuna sănătății și siguranței. Alte sectoare, cum ar fi produsele chimice și produsele alimentare, au audituri regulate pentru a se asigura că produsele sunt sigure de utilizat. Ar putea așa ceva să devină norma în IA?” (MIT Technology Review, Melissa Heikkilä, 24 octombrie 2022).

Să discutăm un pic în general despre semnele de avertizare și de avertizare.

Cu toții suntem deja în general familiarizați cu semnele de avertizare și de avertizare privind numeroase produse și servicii de natură cotidiană. Uneori, semnele de siguranță sunt prevăzute de lege ca fiind obligatorii, în timp ce în alte cazuri există discreție în ceea ce privește utilizarea acestor semne. În plus, unele semne de siguranță sunt standardizate, cum ar fi specificate conform standardului ANSI Z535 și standardului OSHA 1910.14. Aceste standarde acoperă aspecte precum formularea semnului, culorile și fonturile utilizate, forma semnului și diverse alte detalii.

Este logic să existe standarde pentru astfel de semne de avertizare. Ori de câte ori vezi un astfel de semn, dacă îndeplinește standardele declarate, este mai probabil să crezi că semnul este legitim, plus că ai nevoie de mai puțină procesare cognitivă pentru a analiza și a da sens semnului. Pentru semnele care nu sunt de o abordare standardizată, de multe ori trebuie să calculați mental ce vă spune semnul, poate pierzând timp prețios pentru a lua măsuri sau s-ar putea să judecați complet greșit semnul și să nu înțelegeți corect avertismentul la îndemână.

Pot exista o serie de astfel de semne, pentru care sunt adesea clasificate oarecum astfel:

  • Semn de pericol: Cel mai mare motiv de îngrijorare și indică un pericol imediat, cu posibile consecințe grave
  • Semn de avertizare: indică un pericol care este mai mic decât „pericol”, dar totuși destul de grav
  • Semn de avertizare: indică un pericol potențial care este mai puțin decât „avertisment”, dar încă serios
  • Semn de notificare: indică o atenție informațională care este mai puțin decât „atenție”, dar implică totuși aspecte îngrijorătoare

Având în vedere contextul de mai sus despre avertismente și semne de avertizare, putem merge mai departe și să încercăm să aplicăm acest lucru în context utilizării AI.

În primul rând, am putea fi într-un fel de acord că semnalizarea AI ar putea avea un interval de severitate similar cu cel obișnuit cu semnele de zi cu zi, astfel încât:

  • Semn de pericol AI: IA de cea mai mare îngrijorare și indică un pericol imediat cu posibile consecințe grave
  • Semn de avertizare AI: AI indică un pericol care este mai puțin decât „pericol”, dar totuși destul de grav
  • Semn de avertizare AI: AI indică un potențial pericol care este mai puțin decât un „avertisment”, dar totuși serios
  • Semn de notificare AI: AI indică o atenție informațională care este mai puțin decât „atenție”, dar implică totuși aspecte îngrijorătoare

Esența este că nu toată IA va fi la fel de îngrijorătoare. S-ar putea ca un AI să prezinte riscuri extraordinare sau să aibă doar riscuri marginale. În consecință, semnalizarea ar trebui să reflecte care este care. Dacă toate avertismentele AI sau semnele de avertizare ar fi arătate pur și simplu ca fiind de același calibru, probabil că nu am ști sau nu am fi conștienți dacă să fim foarte îngrijorați sau doar ușor îngrijorați de AI. Utilizarea unei scheme de formulare tipificată ar putea face viața mai ușoară atunci când vedeți și interpretați semnele de avertizare legate de IA.

S-ar putea să vă întrebați ce altceva ar mai spune semnele în ceea ce privește specificul mesajului care trebuie transmis.

Aceasta este cu siguranță o chestiune mai greu de rezolvat. Posibilitățile AI de a face lucruri care sunt considerate nesigure sau îngrijorătoare ar fi enorm de mari, aproape nesfârșite. Le putem reduce într-un set de rutină care este scris în doar câteva cuvinte fiecare? Sau va trebui să permitem o abordare mai liberă a modului în care va merge formularea?

Vă las să vă gândiți la această întrebare deschisă.

Mergând mai departe, avem tendința de a vedea semne de avertizare postate pe obiecte. Un sistem AI nu este neapărat un „obiect” în același sens cu aplicarea obișnuită a semnelor. Acest lucru ridică întrebarea unde vor fi prezentate semnele de avertizare AI.

S-ar putea ca atunci când rulați o aplicație pe smartphone-ul dvs., spuneți că, dacă folosește AI, s-ar afișa un mesaj care conține avertismentul legat de AI. Aplicația te va alerta cu privire la utilizarea de bază a AI. Acesta poate fi un mesaj pop-up sau poate fi prezentat într-o varietate de moduri vizuale și chiar auditive.

Există, de asemenea, situația în care utilizați un serviciu care este susținut de AI, deși este posibil să nu interacționați direct cu AI. De exemplu, ați putea avea o conversație cu un agent uman despre obținerea unui credit ipotecar pentru o casă, pentru care agentul se află în tăcere în culise folosind un sistem AI pentru a le ghida eforturile.

Astfel, ar trebui să anticipăm că semnele de avertizare AI ar trebui să fie prezente în ambele cazuri de utilizare a AI, astfel încât:

  • IA specifică produsului: AI ca produs ar trebui să aibă semne de avertizare sau de avertizare AI
  • AI orientat spre servicii: AI ca serviciu (direct sau indirect) ar trebui să aibă semne de avertizare sau de avertizare AI

Scepticii s-ar grăbi cu siguranță să sugereze că semnul de avertizare AI ar putea fi ascuns deghizat de producătorul aplicației, astfel încât alerta să nu fie deosebit de vizibilă. Poate că avertismentul apare pentru o scurtă clipă și chiar nu observați că a fost afișat. Un alt truc ascuns ar fi să faci un fel de joc din asta, aparent subcutând seriozitatea alertei și amângându-i pe oameni să creadă că avertismentul este lipsit de importanță.

Da, poți să pariezi că orice semn de avertizare legat de inteligența artificială va fi păcălit și folosit în moduri care nu se încadrează în spiritul și intenția mesajelor de avertizare pe care ar trebui să le transmită.

Toate aceste scepticisme se potrivesc în cazul în care am folosi Etica AI ca „legi neoficiale” pentru a încerca să avansăm în privința avertismentelor și avertismentelor legate de IA sau dacă am folosi „legi dure”, inclusiv legi promulgate cu sprijinul instanțelor. În teorie, împingerea legii blânde ar permite o mai mare aparență de a se juca cu chestiunea, în timp ce legile din cărți ar veni cu potențialul de aplicare a legii de către guvern și ar aduce o mai mare strictețe.

O altă îngrijorare este dacă semnalizarea AI ar face oricum vreo diferență.

Multe cercetări privind comportamentul consumatorilor tind să arate rezultate confuze atunci când vine vorba de furnizarea de etichete de avertizare pentru consumatori. Uneori avertismentele sunt eficiente, alteori nu. Să aplicăm o parte din aceste cercetări în contextul AI.

Luați în considerare aceste fațete:

  • Detectare: Cei care folosesc AI care conține un semn de avertizare AI viabil ar observa sau ar detecta în mod activ că semnul le este arătat (presupunând că a avut loc un astfel de semnal)?
  • Intelegere: Pentru cei care au observat, ar înțelege sau ar înțelege ceea ce semnul de avertizare AI încearcă să le sugereze?
  • Acțiune: Pentru cei care fac acest salt mental, semnul de avertizare AI îi va determina să treacă la acțiune sau va servi în alt mod pentru a le ghida comportamentul în consecință?

Puteți anticipa că, dacă crește impulsul pentru a avea semne de avertizare AI, cercetătorii vor studia îndeaproape problema. Ideea ar fi de a ajuta la clarificarea în ce circumstanțe sunt utile avertismentele și când nu. Aceasta, la rândul său, se referă la design și aspectul și senzația implicate. De asemenea, ne-am putea aștepta ca publicul larg să fie educat sau informat cu privire la apariția acestor semne de avertizare și avertizare AI, astfel încât să se obișnuiască cu ele.

Există o mulțime de răsturnări de situație de luat în considerare.

Semnul de avertizare sau de avertizare AI ar trebui să apară numai la începutul utilizării aplicației? Poate că punctul de plecare nu este suficient în sine. O persoană ar putea crede, la prima vedere, că aplicația doar joacă în siguranță folosind un avertisment și, prin urmare, nu acordă prea multă atenție avertismentului. Odată ce persoana este la jumătatea utilizării aplicației, poate că ar fi justificată un avertisment suplimentar. În acel moment, persoana este mai conștientă de ceea ce întreprinde aplicația și este posibil să fi uitat deja de mesajul de avertizare indicat mai devreme.

Avertismentul sau avertismentul AI poate apărea atunci:

  • Înainte de a porni aplicația și exact când aplicația este pe cale să fie invocată
  • Prezentat odată ce aplicația este pornită și numai la punctul de pornire
  • Afișat la început și din nou la jumătatea drumului
  • Afișat de mai multe ori pe parcursul utilizării AI
  • Dat la sfârșitul utilizării aplicației
  • Furnizați după părăsirea aplicației și, eventual, chiar câteva minute, ore sau zile mai târziu
  • Etc

Credeți că persoana care utilizează IA trebuie să confirme sau să recunoască astfel de avertismente sau semne de avertizare AI?

Unii ar insista că persoanei ar trebui să i se ceară să recunoască că a văzut avertismentele. Acest lucru i-ar putea preveni pe cei care ar putea afirma că nu a existat niciun mesaj de avertizare. De asemenea, ar putea determina oamenii să ia mesajele mai în serios, având în vedere că li se cere să confirme că au respectat indicația de avertizare.

Iată o întrebare dificilă pentru tine.

toate AI trebuie să ofere un avertisment sau o indicație de siguranță?

Ai putea argumenta că da, toate AI trebuie să aibă asta. Chiar dacă AI este doar un risc marginal de siguranță, ar trebui să aibă totuși o formă de semn de avertizare, eventual doar o notificare sau o indicație informațională. Alții ar contesta această afirmație. Ei ar contraargumenta că treci peste bord. Nu toată AI are nevoie de asta. În plus, dacă forțezi toată AI să o aibă, vei dilua scopul. Oamenii vor deveni amorțiți să vadă indicațiile de avertizare. Întreaga abordare va deveni o farsă.

Dintr-un unghi înrudit, luați în considerare ce vor spune producătorii AI.

Un punct de vedere ar fi că acest lucru va fi o durere în ceea ce știți-ce să puneți la loc. Trebuie să vă modificați toate sistemele AI și să adăugați această funcție ar putea fi costisitor. Adăugarea lui pe o bază continuă ar putea fi mai puțin costisitoare, deși, totuși, există un cost asociat cu includerea acestei prevederi.

Ceața este o altă potențială plângere. Ce fel de mesaj trebuie afișat? Dacă nu există standarde, aceasta înseamnă că producătorii de AI vor trebui să creeze ceva nou. Nu numai că acest cost suplimentar, dar poate deschide ușa pentru a fi dat în judecată. Vă puteți imagina că un producător de AI ar putea fi dus la sarcina că avertismentul său nu a fost la fel de bun ca alt sistem AI. Avocații vor ajunge să facă un pachet din confuzia rezultată.

Există, de asemenea, îngrijorarea că oamenii vor fi speriați nejustificat de aceste mesaje de siguranță.

Un producător de inteligență artificială ar putea observa o scădere abruptă a numărului de utilizatori din cauza unui mesaj de siguranță care are doar scopul de a oferi o atenție informativă. Oamenii nu vor ști ce să creadă cu mesajul. Dacă nu au văzut astfel de mesaje până acum, s-ar putea să se sperie imediat și să evite inutil utilizarea AI.

Menționez acele fațete pentru că unii proclamă deja că „nu poate strica” să începi să includă avertismente AI sau mesaje de siguranță. Pentru ei, ideea este la fel de ideală ca plăcinta cu mere. Nimeni nu ar putea respinge în mod serios beneficiile de a solicita întotdeauna siguranță sau avertismente legate de AI. Dar, desigur, acesta nu este un mod real de a gândi această problemă.

Ați putea chiar să mergeți mai departe și să susțineți că mesajele de avertizare AI ar putea produce o formă de isterie în masă. Dacă am început brusc să forțăm sistemele AI să aibă astfel de mesaje, oamenii ar putea interpreta greșit intenția. Vedeți, există o mulțime de îndemnuri că ne confruntăm cu o criză existențială a AI, prin care AI va prelua lumea și va șterge omenirea, vedeți. linkul aici pentru analiza mea asupra acestor tipuri de afirmații.

Utilizarea mesajului de avertizare AI ar putea „inspira” unii oameni să creadă că sfârșitul este aproape. De ce altfel ar apărea mesajele acum? Cu siguranță, este un indiciu că, în cele din urmă, AI se pregătește să devină stăpânii noștri opresivi.

Un fel de rezultat disperat de sumbru al încercării de a face ceea ce trebuie, făcând publicul conștient de modul în care AI poate fi infuzată cu capacități discriminatorii sau alte AI pentru rău aspecte.

Concluzie

James Russell Lowell, celebrul poet american, a spus odată acest lucru: „Un ghimpe al experienței merită o întreagă sălbăticie de avertizare”.

Aduc în discuție remarcă înaltă pentru a face câteva comentarii finale cu privire la avertismentele AI sau mesajele de siguranță.

Sunt șanse ca până când nu vom realiza o conștientizare oarecum larg răspândită a faptului că AI face fapte rele, să nu existe prea mult clam pentru mesaje de avertizare legate de AI. Acei producători de inteligență artificială care aleg să facă acest lucru în mod voluntar vor fi probabil lăudați, deși s-ar putea, de asemenea, să se simtă hărțuiți pe nedrept. Unii experți ar putea să-i urmărească pentru că au folosit AI care aparent are nevoie de avertismente, pentru început, neglijând între timp să își dea seama că ei încercau să meargă primii și toți ceilalți producători de AI rămân în urmă.

La naiba dacă o faci, poate nu la naiba dacă nu o faci.

O altă considerație se referă la transformarea a ceea ce pare a fi o idee conceptuală frumoasă într-o practică practică și utilă. Este ușor să vă fluturați mâinile și să strigi vag în vânt că AI ar trebui să aibă mesaje de avertizare și siguranță. Partea grea vine atunci când se decide care ar trebui să fie acele mesaje, când și unde ar trebui prezentate, dacă sau în ce măsură costul lor aduce beneficii suficiente și așa mai departe.

Îi vom oferi aici lui James Russell Lowell ultimul cuvânt (din punct de vedere poetic) pe această temă pentru moment: „Creativitatea nu este găsirea unui lucru, ci a face ceva din el după ce este găsit”.

Presupun că este timpul să ne suflecăm mânecile și să ne apucăm de treabă la asta. Și asta nu este doar un avertisment, este o acțiune.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- avertismente-pentru-toate-existente-și-viitoare-ai/