AI responsabilă se bucură de un impuls preeminent prin proclamarea eticii AI de către societatea profesională de top ACM

Ați văzut sau auzit știrile?

Un alt set de precepte de etică AI a fost nou proclamat.

Aplauze zgomotoase, dacă vă rog.

Apoi, din nou, s-ar putea nu am observat acest lucru datorită faptului că atât de multe alte decrete de etică AI plutesc de ceva vreme. Unii spun că difuzarea aparent neîntreruptă a proclamațiilor Ethical AI devine puțin amorțitoare. De câte avem nevoie? Poate cineva să țină pasul cu toate? Care este mai bun? Exagerăm poate cu principiile eticii AI? Și așa mai departe.

Ei bine, în acest caz particular, spun că ar trebui să salutăm în mod deosebit această ultimă adăugire la club.

Îți voi explica în mod perspicace de ce într-o clipă.

În primul rând, ca o clarificare, mă refer la setul de precepte de etică AI cunoscut acum oficial ca „Declarație privind principiile pentru sisteme algoritmice responsabile” care a fost publicat recent de Consiliul de politică tehnologică ACM pe 26 octombrie 2022. Felicitari echipelor de experți care au creat acest document prețuit, inclusiv co-autorii Jeanna Matthews (Universitatea Clarkson) și Ricardo Baeza-Yates (Universitatea Pompeu Fabra). ).

Cei dintre voi cunoscători ar putea, la o inspecție atentă, să realizeze că acest document pare puțin familiar.

Ochi bun!

Această ultimă încarnare este în esență o variantă actualizată și extinsă a „Declarației anterioare privind transparența algoritmică și responsabilitatea” care a fost promulgată de Comitetul de politică tehnologică ACM din SUA și de Comitetul de politică tehnologică ACM Europe în 2017. Cititorii fideli ai coloanelor mele ar putea aminti că Am menționat din când în când decretul din 2017 în coloana mea, care descrie aspectele cheie care stau la baza Eticii AI și Legii AI.

Pentru evaluarea mea extinsă și continuă și analizele de tendințe ale eticii AI și ale legii AI, vezi linkul aici și linkul aici, Doar pentru a numi câteva.

Această ultimă declarație a ACM este deosebit de importantă din mai multe motive vitale.

Iata de ce.

ACM, care este un acronim la îndemână pentru Asociația pentru mașini de calcul, este considerată cea mai mare asociație din lume axată pe calcul. Cuprinzând aproximativ 110,000 de membri, ACM este un pionier de multă vreme în domeniul calculului. ACM produce unele dintre cele mai importante cercetări academice în domeniul informaticii și, de asemenea, oferă rețele profesionale și atrage și practicienii în calcul. Ca atare, ACM este o voce importantă care îi reprezintă în general pe cei care sunt de înaltă tehnologie și s-a străduit în mod constant să avanseze în domeniul computerelor (ACM a fost fondat în 1947).

S-ar putea să adaug și o mică notă personală despre asta. Când m-am apucat prima oară de computere în liceu, m-am alăturat ACM și am participat la programele lor educaționale, în special la șansa interesantă de a concura în competiția lor anuală de programare a computerelor (astfel de competiții sunt obișnuite în zilele noastre și sunt etichetate de obicei ca hackatoni). Rămân implicat în ACM în timp ce sunt în facultate, prin intermediul capitolului meu local al universității și am avut ocazia să învăț despre leadership devenind un ofițer de capitol student. La intrarea în industrie, m-am alăturat unui capitol profesional și am preluat din nou un rol de conducere. Mai târziu, când am devenit profesor, am făcut parte din comitetele și comitetele editoriale ACM, împreună cu sponsorizarea capitolului studenților din campus. Chiar și astăzi, sunt activ în ACM, inclusiv în cadrul Comitetului de politică tehnologică ACM din SUA.

Îmi place viziunea îndrăzneață și de durată ACM a învățării pe tot parcursul vieții și a dezvoltării carierei.

În orice caz, în ceea ce privește cea mai recentă declarație de etică AI, faptul că aceasta a fost emisă de ACM are o greutate mare asupra acesteia. Ați putea afirma în mod rezonabil că preceptele AI etice sunt vocea totală sau colectivă a unui grup mondial de profesioniști în calcul. Asta spune ceva chiar acolo.

Există, de asemenea, aspectul că alții din domeniul computerelor vor fi inspirați să se distreze și să asculte, în sensul de a acorda atenția cuvenită a ceea ce declară declarația colegilor lor de calcul. Astfel, chiar și pentru cei care nu fac parte din ACM sau nu știu nimic despre veneratul grup, sperăm că va exista un interes puternic pentru a descoperi despre ce este vorba în declarație.

Între timp, cei care sunt exterior a domeniului de calcul ar putea fi atras de afirmație ca un fel de privire din interior în culise la ceea ce spun cei care cunosc computerele despre IA etică. Vreau să subliniez totuși că declarația este destinată tuturor, nu doar celor din comunitatea informatică și, prin urmare, rețineți că preceptele de etică AI sunt generale, așa cum ar fi.

În cele din urmă, există o întorsătură suplimentară pe care puțini ar lua în considerare.

Uneori, străinii percep asociațiile de calcul ca fiind până la genunchi în tehnologie și nu sunt în mod special conștienți de impactul societal al computerelor și AI. S-ar putea să fiți tentat să presupuneți că unor astfel de entități profesionale le pasă doar de cele mai recente și mai tare descoperiri în hardware sau software. Aceștia sunt percepuți de public, într-o manieră pur și simplu, neplăcută, ca fiind tocilari de tehnologie.

Pentru a clarifica lucrurile, am fost cufundat în impactul social al computerelor de când m-am apucat prima dată de computere și, de asemenea, ACM a fost, de asemenea, profund implicat în astfel de subiecte.

Pentru oricine este surprins de faptul că această declarație despre preceptele de etică AI a fost elaborată și publicată de ACM, ei nu acordă atenție cercetărilor și lucrărilor de lungă durată care au loc în aceste aspecte. De asemenea, aș îndemna cei interesați să se uite bine la ACM Codul de etică, un cod strident de etică profesională care a evoluat de-a lungul anilor și subliniază faptul că dezvoltatorii de sisteme trebuie să fie conștienți de, să respecte și să fie vigilenți cu privire la ramificațiile etice ale eforturilor și produselor lor.

Inteligența artificială a aprins focul în momentul în care sa informat despre etica informatică.

Vizibilitatea considerentelor etice și legale în domeniul calculului a crescut enorm odată cu apariția IA de astăzi. Cei din profesie sunt informați și uneori băgați cu tamburul cu privire la acordarea atenției cuvenite problemelor legate de Etica AI și Legea AI. Legislatorii devin din ce în ce mai conștienți de aspectele legate de Etica AI și Legile AI. Companiile înțeleg ideea că inteligența artificială pe care o creează sau o folosesc este avantajoasă și totuși, uneori, deschide riscuri enorme și dezavantaje potențiale.

Să despachetăm ceea ce s-a întâmplat în ultimii câțiva ani, astfel încât să poată fi stabilit un context adecvat înainte de a trece la acest ultim set de precepte de etică AI.

Creșterea gradului de conștientizare a IA etică

Era recentă a AI a fost inițial privită ca fiind AI pentru bine, ceea ce înseamnă că am putea folosi AI pentru îmbunătățirea umanității. Pe tocuri de AI pentru bine ne-am dat seama că suntem și noi cufundați AI pentru rău. Aceasta include IA care este concepută sau auto-modificată pentru a fi discriminatorie și face alegeri computaționale care imbunătățesc părtiniri nejustificate. Uneori, IA este construită în acest fel, în timp ce în alte cazuri se îndreaptă spre acel teritoriu neplăcut.

Vreau să mă asigur din plin că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am vrea să speculăm în mod sălbatic despre IA sensibilă, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea IA super-inteligentă, este de imaginat că o astfel de IA ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Aș sugera cu tărie să menținem lucrurile cu picioarele pe pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

Fiți foarte atenți la antropomorfizarea IA de astăzi.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Toate acestea au implicații semnificative de etică AI și oferă o fereastră utilă către lecțiile învățate (chiar înainte ca toate lecțiile să se întâmple) atunci când vine vorba de încercarea de a legifera AI.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. Ei avertizează că, dacă adoptăm unele dintre aceste legi privind IA, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense.

În coloanele anterioare, am acoperit diferitele eforturi naționale și internaționale de a elabora și a adopta legi care reglementează IA, vezi linkul aici, de exemplu. Am tratat, de asemenea, diferitele principii și linii directoare ale eticii IA pe care diferitele națiuni le-au identificat și adoptat, inclusiv, de exemplu, efortul Națiunilor Unite, cum ar fi setul UNESCO de etică IA pe care aproape 200 de țări l-au adoptat, vezi linkul aici.

Iată o listă de temelie utilă a criteriilor sau caracteristicilor AI etice privind sistemele AI pe care le-am explorat anterior îndeaproape:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Se presupune că acele principii de etică AI sunt utilizate cu seriozitate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI.

Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a subliniat anterior aici, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

De asemenea, am examinat recent Declarația drepturilor AI care este titlul oficial al documentului oficial al guvernului SUA intitulat „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, care a fost rezultatul unui efort de un an al Oficiului pentru Politică în Știință și Tehnologie (OSTP). ). OSTP este o entitate federală care servește să consilieze președintele american și biroul executiv al SUA cu privire la diferite aspecte tehnologice, științifice și de inginerie de importanță națională. În acest sens, puteți spune că această Declarație a drepturilor AI este un document aprobat și susținut de Casa Albă a SUA existentă.

În Bill of Rights AI, există cinci categorii cheie:

  • Sisteme sigure și eficiente
  • Protecții de discriminare algoritmică
  • confidențialitatea datelor
  • Observație și explicație
  • Alternative umane, considerație și rezervă

Am analizat cu atenție acele precepte, vezi linkul aici.

Acum că am pus o bază utilă pe aceste subiecte legate de Etica AI și Legea AI, suntem gata să trecem la recent lansata ACM „Declarație privind principiile pentru sistemele algoritmice responsabile” (apropo, deoarece titlul documentului se referă la responsabil sisteme algoritmice, ați putea dori să aruncați o privire la evaluarea mea despre ceea ce înseamnă să vorbim AI de încredere, A se vedea linkul aici).

Pregătește-te pentru o călătorie în acest ultim set de principii de etică AI.

Săpând cu atenție în Preceptele de etică AI declarate de ACM

Declarația ACM despre IA etică constă din aceste nouă cheie de temelie:

  • Legitimitate și competență
  • Minimizarea prejudiciului
  • De securitate și confidențialitate
  • Transparență
  • Interpretabilitate și explicabilitate
  • mentenabilitate
  • Contestabilitate și auditabilitate
  • Responsabilitate și responsabilitate
  • Limitarea impactului asupra mediului

Dacă comparați acest ultim set cu alte seturi disponibile în mod deosebit, există o mare similitudine sau corespondență asemănătoare între ele.

Pe de o parte, poți lua asta ca pe un semn bun.

În general, am putea spera că multitudinea de principii de etică a AI care plutesc în jur se unesc către aceeași acoperire generală. A vedea că un set este oarecum comparabil cu un alt set îți oferă o aparență de încredere că aceste seturi se află în același stagiu și nu cumva într-un câmp stânga derutant.

O posibilă plângere a unora este că aceste seturi diferite par a fi aproximativ aceleași, ceea ce poate crea confuzie sau cel puțin consternare din cauza scrupulei că nu ar trebui să avem numeroase liste aparent duplicative. Nu poate fi o singură listă? Problema este, desigur, că nu există o modalitate simplă de a face ca toate astfel de liste să fie în mod uniform exact aceleași. Diferite grupuri și diferite entități au abordat acest lucru în moduri diferite. Vestea bună este că aproape toți au ajuns la aceeași concluzie generală. Putem fi ușurați că seturile nu au diferențe uriașe, ceea ce poate ne-ar neliniști dacă nu ar exista un consens general.

Un contrariant ar putea îndemna că comunitatea acestor liste este deconcertant, argumentând că poate există o gândire de grup. Poate că toate aceste grupuri disparate gândesc la fel și nu sunt capabile să privească dincolo de normă. Cu toții cădem într-o capcană identică. Listele ne ancorează aparent gândirea și nu suntem capabili să vedem dincolo de propriile noastre nasuri.

Privirea dincolo de nasul nostru este, fără îndoială, o cauză demnă.

Sunt cu siguranță deschis să aud ce au de spus contrarianții. Uneori prind vânt de ceva care are Titanic îndreptându-se spre un aisberg uriaș. Ne-ar putea folosi câteva puncte de observare cu ochi de vultur. Dar, în ceea ce privește aceste precepte de etică a IA, nu a existat nimic articulat definitiv de către contrarianți care să pară să submineze sau să ridice în mod evident îngrijorări cu privire la o comună nejustificată care se întâmplă. Cred că ne descurcăm bine.

În acest set ACM, există câteva puncte deosebit de notabile sau remarcabile care cred că merită deosebit de atenție.

În primul rând, îmi place formularea de nivel superior, care este oarecum diferită de norma.

De exemplu, referindu-se la legitimitate și competență (primul articol marcat) evocă o aparență a importanței atât a competențelor de designer, cât și a competențelor de management asociate cu IA. In plus legitimitate sloganul ajunge să ne ducă în etica AI și Domeniul legii AI. Spun asta pentru că multe dintre preceptele de etică a IA se concentrează aproape în întregime pe implicațiile etice, dar par să omite sau să se sfiată de a observa și ramificațiile legale. În domeniul juridic, considerentele etice sunt adesea prezentate ca fiind „lege neobișnuită”, în timp ce legile din cărți sunt interpretate ca „legi dure” (adică ele poartă greutatea instanțelor legale).

Una dintre vorbele mele preferate din toate timpurile a fost rostită de celebrul jurist Earl Warren: „În viața civilizată, legea plutește într-o mare de etică”.

Trebuie să ne asigurăm că preceptele de etică AI cuprind și subliniază, de asemenea, partea strictă a lucrurilor, cum ar fi în elaborarea, adoptarea și aplicarea legilor AI.

În al doilea rând, apreciez că lista include contestabilitate și auditabilitate.

Am scris în mod repetat despre valoarea de a putea contesta sau ridica un steag roșu atunci când ești supus unui sistem AI, vezi linkul aici. În plus, vom vedea din ce în ce mai multe legi noi care obligă sistemele AI să fie auditate, despre care am discutat pe larg despre legea din New York City (NYC) privind prejudecățile de audit ale sistemelor AI utilizate pentru angajarea și promovarea angajaților, vezi linkul aici. Din păcate, și după cum am criticat în mod deschis noua lege din NYC, dacă aceste legi de auditare sunt viciate, probabil că vor crea mai multe probleme decât rezolvă.

În al treilea rând, există o trezire treptată a faptului că AI poate pătrunde probleme de sustenabilitate și sunt încântat să văd că de mediu subiectul a primit o facturare de nivel superior în aceste precepte de etică AI (vezi ultimul punct al listei).

Faptul de a crea un sistem AI poate consuma o mulțime de resurse de calcul. Acele resurse de calcul pot fi direct sau indirect uzurpatori ai durabilității. Există un compromis care trebuie luat în considerare cu privire la beneficiile pe care le oferă o IA față de costurile care vin împreună cu IA. Ultimul dintre articolele marcate ACM notează considerațiile de durabilitate și de mediu care apar cu AI. Pentru acoperirea mea a problemelor legate de amprenta de carbon legate de IA, consultați linkul aici.

Acum că am aruncat o privire de sus asupra listei ACM de precepte de etică AI, apoi ne punem degetele de la picioare mai adânc în apă.

Iată descrierile oficiale pentru fiecare dintre preceptele de etică AI de nivel înalt (citate din declarația oficială):

1. "Legitimitate și competență: Proiectanții sistemelor algoritmice ar trebui să aibă competența de management și autorizarea explicită pentru a construi și implementa astfel de sisteme. De asemenea, ei trebuie să aibă experiență în domeniul aplicației, o bază științifică pentru utilizarea prevăzută a sistemelor și să fie considerați pe scară largă ca legitimi din punct de vedere social de către părțile interesate afectate de sistem. Trebuie efectuate evaluări juridice și etice pentru a confirma că orice riscuri introduse de sisteme vor fi proporționale cu problemele abordate și că orice compromis între beneficii și prejudicii sunt înțelese de toate părțile interesate relevante.”

2. "Minimizarea daunelor: Managerii, designerii, dezvoltatorii, utilizatorii și alte părți interesate ale sistemelor algoritmice ar trebui să fie conștienți de posibilele erori și părtiniri implicate în proiectarea, implementarea și utilizarea acestora și de potențialul prejudiciu pe care un sistem îl poate cauza indivizilor și societății. Organizațiile ar trebui să efectueze în mod obișnuit evaluări de impact asupra sistemelor pe care le folosesc pentru a determina dacă sistemul ar putea genera prejudicii, în special daune discriminatorii, și pentru a aplica măsurile de atenuare adecvate. Atunci când este posibil, ei ar trebui să învețe din măsurători ale performanței reale, nu numai din modelele deciziilor anterioare care ar putea fi ele însele discriminatorii.”

3. "Securitate și confidențialitate: Riscul de la părțile rău intenționate poate fi atenuat prin introducerea celor mai bune practici de securitate și confidențialitate în fiecare fază a ciclurilor de viață ale sistemelor, inclusiv controale robuste pentru a atenua noile vulnerabilități care apar în contextul sistemelor algoritmice.”

4. "Transparență: Dezvoltatorii de sisteme sunt încurajați să documenteze în mod clar modul în care anumite seturi de date, variabile și modele au fost selectate pentru dezvoltare, instruire, validare și testare, precum și măsurile specifice care au fost utilizate pentru a garanta calitatea datelor și a rezultatelor. Sistemele ar trebui să indice nivelul lor de încredere în fiecare rezultat, iar oamenii ar trebui să intervină atunci când încrederea este scăzută. De asemenea, dezvoltatorii ar trebui să documenteze abordările care au fost utilizate pentru a explora eventualele părtiniri. Pentru sistemele cu impact critic asupra vieții și bunăstării, ar trebui să fie necesare proceduri independente de verificare și validare. Controlul public al datelor și modelelor oferă oportunități maxime de corectare. Prin urmare, dezvoltatorii ar trebui să faciliteze testarea terților în interesul public.”

5. "Interpretabilitate și explicabilitate: Managerii sistemelor algoritmice sunt încurajați să producă informații atât cu privire la procedurile pe care le urmează algoritmii folosiți (interpretabilitate), cât și la deciziile specifice pe care le iau (explicabilitate). Explicabilitatea poate fi la fel de importantă ca acuratețea, mai ales în contexte de politică publică sau în orice mediu în care există preocupări cu privire la modul în care algoritmii ar putea fi denaturați pentru a beneficia un grup în detrimentul altuia fără recunoaștere. Este important să se facă distincția între explicații și raționalizările post-fact care nu reflectă dovezile sau procesul de luare a deciziilor utilizate pentru a ajunge la concluzia care este explicată.”

6. "Mentenabilitatea: Dovezile privind soliditatea tuturor sistemelor algoritmice ar trebui colectate pe parcursul ciclului lor de viață, inclusiv documentarea cerințelor sistemului, proiectarea sau implementarea modificărilor, cazurile de testare și rezultatele și un jurnal al erorilor găsite și remediate. Întreținerea corespunzătoare poate necesita sisteme de reinstruire cu date noi de antrenament și/sau înlocuirea modelelor utilizate.”

7. "Contestabilitate și auditabilitate: Autoritățile de reglementare ar trebui să încurajeze adoptarea de mecanisme care să permită indivizilor și grupurilor să pună la îndoială rezultatele și să caute reparații pentru efectele adverse rezultate din decizii informate algoritmic. Managerii ar trebui să se asigure că datele, modelele, algoritmii și deciziile sunt înregistrate, astfel încât să poată fi auditate și să poată fi replicate rezultatele în cazurile în care se suspectează sau se presupune că daune. Strategiile de audit ar trebui făcute publice pentru a permite indivizilor, organizațiilor de interes public și cercetătorilor să revizuiască și să recomande îmbunătățiri.”

8. "Responsabilitate și responsabilitate: Organismele publice și private ar trebui să fie trase la răspundere pentru deciziile luate de algoritmii pe care îi folosesc, chiar dacă nu este fezabil să se explice în detaliu modul în care acești algoritmi și-au produs rezultatele. Astfel de organisme ar trebui să fie responsabile pentru sistemele întregi, așa cum sunt implementate în contextele lor specifice, nu doar pentru părțile individuale care alcătuiesc un anumit sistem. Când sunt detectate probleme în sistemele automate, organizațiile responsabile cu implementarea acelor sisteme ar trebui să documenteze acțiunile specifice pe care le vor întreprinde pentru a remedia problema și în ce circumstanțe ar trebui suspendată sau întreruptă utilizarea unor astfel de tehnologii.”

9. "Limitarea impactului asupra mediului: Sistemele algoritmice ar trebui să fie proiectate pentru a raporta estimări ale impactului asupra mediului, inclusiv emisiile de carbon atât din procesele de instruire, cât și din calculele operaționale. Sistemele de inteligență artificială ar trebui proiectate astfel încât să se asigure că emisiile lor de carbon sunt rezonabile, având în vedere gradul de precizie cerut de contextul în care sunt implementate.”

Am încredere că veți oferi fiecăruia dintre aceste precepte cruciale de etică AI o lectură atentă și odinioară. Vă rugăm să le luați la inimă.

Concluzie

Există o parte subtilă, dar la fel de crucială a declarației ACM, pe care cred că mulți ar putea să o treacă cu vederea din neatenție. Permiteți-mi să vă aduc atenția asupra acestui lucru.

Fac aluzie la o porțiune care discută dificultățile agonizante de a trebui să cântărească compromisurile asociate cu preceptele de etică AI. Vedeți, majoritatea oamenilor dau adesea din cap când citesc principiile AI etice și presupun că toate preceptele sunt egale ca greutate și că toate preceptele vor primi întotdeauna aceeași aparență optimă de deferență și valoare.

Nu în lumea reală.

După ce cauciucul se întâlnește cu drumul, orice fel de IA care are chiar și un minim de complexitate va testa în mod nasol preceptele eticii AI în ceea ce privește unele dintre elementele fiind suficient de atins peste unele dintre celelalte principii. Îmi dau seama că s-ar putea să exclami cu voce tare că toată IA trebuie să maximizeze toate preceptele de etică AI, dar acest lucru nu este deosebit de realist. Dacă acesta este poziția pe care doriți să o luați, îndrăznesc să spun că probabil că ar trebui să le spuneți majorității sau aproape tuturor producătorilor și utilizatorilor de AI să închidă magazinul și să oprească complet AI.

Trebuie făcute compromisuri pentru a scoate AI pe ușă. Acestea fiind spuse, nu susțin tăierea colțurilor care încalcă preceptele de etică AI și nici nu sugerez că ar trebui să încalce legile AI. Trebuie îndeplinit un anumit minim și peste care scopul este să ne străduim mai mult. În cele din urmă, un echilibru trebuie judecat cu atenție. Acest act de echilibrare trebuie făcut cu atenție, explicit, legal și cu Etica AI ca o credință bună și sinceră (s-ar putea să doriți să vedeți cum utilizează companiile Comitete de Etică AI pentru a încerca să obțină această abordare solemnă, vezi linkul aici).

Iată câteva puncte marcate pe care declarația ACM le menționează cu privire la complexitatea compromisurilor (citate din documentul oficial):

  • „Soluțiile ar trebui să fie proporționale cu problema rezolvată, chiar dacă acest lucru afectează complexitatea sau costul (de exemplu, respingerea utilizării supravegherii video publice pentru o sarcină simplă de predicție).”
  • „Ar trebui luate în considerare o mare varietate de valori de performanță și pot fi ponderate diferit în funcție de domeniul aplicației. De exemplu, în unele aplicații de asistență medicală, efectele fals negative pot fi mult mai grave decât fals pozitive, în timp ce în justiția penală consecințele fals pozitive (de exemplu, încarcerarea unei persoane nevinovate) pot fi mult mai grave decât fals negative. Cea mai dorită configurare a sistemului operațional este rareori cea cu acuratețe maximă.”
  • „Preocupările cu privire la confidențialitate, protejarea secretelor comerciale sau dezvăluirea analizelor care ar putea permite actorilor rău intenționați să joace sistemul pot justifica restricționarea accesului la persoane calificate, dar nu ar trebui folosite pentru a justifica limitarea controlului terților sau pentru a scuza dezvoltatorii de obligație. pentru a recunoaște și a repara erorile.”
  • „Transparența trebuie să fie asociată cu procese de responsabilitate care să permită părților interesate afectate de un sistem algoritmic să caute reparații semnificative pentru prejudiciile cauzate. Transparența nu ar trebui folosită pentru a legitima un sistem sau pentru a transfera responsabilitatea altor părți.”
  • „Când impactul unui sistem este mare, poate fi de preferat un sistem mai explicabil. În multe cazuri, nu există un compromis între explicabilitate și acuratețe. În unele contexte, totuși, explicațiile incorecte pot fi chiar mai rele decât nicio explicație (de exemplu, în sistemele de sănătate, un simptom poate corespunde mai multor boli posibile, nu doar una).

Cei care dezvoltă sau folosesc AI ar putea să nu realizeze în mod deschis compromisurile cu care se confruntă. Liderii de top ai unei firme ar putea presupune în mod naiv că IA îndeplinește maximele din toate principiile eticii AI. Ei fie cred acest lucru pentru că nu au nicio idee despre AI, fie vor să creadă asta și, poate, fac cu ochiul pentru a adopta cu ușurință AI.

Şansele sunt că, dacă nu se confruntă în mod substanţial şi deschis compromisurile, se va ajunge la o IA care va produce rău. Aceste prejudicii, la rândul lor, vor deschide probabil o firmă la datorii potențial la scară largă. În plus, legile convenționale pot apărea în cazul posibilelor acte criminale asociate cu IA, împreună cu legile mai noi, axate pe AI, care se vorbește și asupra acestui lucru. O tonă de cărămizi așteaptă deasupra capetelor celor care cred că se pot descurca cu compromisurile sau care nu sunt profund conștienți de existența compromisurilor (o realizare zdrobitoare va cădea inevitabil asupra lor).

Voi da deocamdată ultimul cuvânt pe această temă aspectului final al declarației ACM, deoarece cred că face o treabă solidă de a explica ceea ce urmăresc macroscopic să aducă aceste precepte ale IA etică:

  • „Recomandările de mai sus se concentrează pe proiectarea, dezvoltarea și utilizarea responsabilă a sistemelor algoritmice; răspunderea trebuie să fie determinată de lege și de ordinea publică. Puterea tot mai mare a sistemelor algoritmice și utilizarea lor în aplicații critice pentru viață și cu consecințe înseamnă că trebuie acordată o mare grijă în utilizarea lor. Aceste nouă principii instrumentale sunt menite să fie inspiraționale în lansarea discuțiilor, inițierea cercetării și dezvoltarea metodelor de guvernare pentru a aduce beneficii unei game largi de utilizatori, promovând în același timp fiabilitatea, siguranța și responsabilitatea. În final, contextul specific este cel care definește proiectarea și utilizarea corectă a unui sistem algoritmic în colaborare cu reprezentanții tuturor părților interesate afectate” (citat din documentul formal).

După cum ne spun cuvintele de înțelepciune, o călătorie de o mie de mile începe cu un prim pas.

Vă implor să vă familiarizați cu Etica AI și Legea AI, făcând orice prim pas care vă va duce la început și apoi să vă ajutați să duceți mai departe aceste eforturi vitale. Frumusețea este că suntem încă în fază incipientă de a înțelege cum să gestionăm și să facem față societății cu AI, astfel, intrați la parter și eforturile voastre pot să vă modeleze în mod demonstrabil viitorul și viitorul pentru noi toți.

Călătoria AI tocmai a început și primii pași vitali sunt încă în curs.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- asociatie-profesionala-acm/