Etica IA și debacleul care se profilează atunci când legea din New York care impune audituri pentru prejudecățile AI intră în funcțiune

Uneori, cea mai bună intenție este zdrobită de o lipsă severă de atenție la detalii.

Un prim exemplu al acestei înțelepciuni înțelepte este demn de explorat.

Mai exact, haideți să aruncăm o privire atentă asupra unei noi legi din New York privind inteligența artificială (AI), care va intra în vigoare la 1 ianuarie 2023. Puteți câștiga cu ușurință un pariu considerabil că vor apărea tot felul de confuzie, consternare și necazuri. odată cu intrarea în vigoare a legii. Deși problemele nu sunt prin proiectare, ele vor apărea fără îndoială ca urmare a unui design slab sau cel puțin a unei stipulații insuficiente a detaliilor necesare care ar fi trebuit și ar fi putut fi ușor concepute și declarate explicit.

Mă refer la o lege locală adoptată anul trecut pe 11 decembrie 2021, în veneratul oraș New York, care este programată să intre în acțiune la începutul anului 2023. În prezent suntem la doar câteva luni distanță de marea trezire care această nouă lege se va agita. Aș vrea să pot spune că legea ambițioasă va face fără probleme ceea ce ar trebui să facă, și anume să se ocupe de potențialele părtiniri ale AI în domeniul luării deciziilor de angajare. Din păcate, deși intenția este lăudabilă, vă voi ghida prin lacunele, omisiunile și lipsa de specificitate care vor submina această lege și vor înnebuni angajatorii, deoarece încearcă să facă față repercusiunilor neintenționate, dar destul de adverse ale acesteia.

Ai putea spune că aceasta este problema clasică de a continua cu un plan pe jumătate pregătit. O maximă venerată atribuită lui Dwight Eisenhower a fost că un plan nu este nimic, în timp ce planificarea este totul. Pe scurt, această lege specială va oferi un exemplu viu al modului în care parlamentarii pot uneori să nu se gândească bine. dinainte detaliile necesare pentru ca legea să-și îndeplinească scopurile lăudabile și să poată fi adoptată în mod sigur și prudent.

O dezamăgire așteaptă.

Scuzele sunt deja aliniate.

Unii experți au spus că nu puteți specifica niciodată pe deplin o lege și trebuie să o vedeți în acțiune pentru a ști ce aspecte ale legii trebuie modificate (un truism general care este disproporționat în acest caz). În plus, aceștia susțin cu înverșunare că acesta este în special cazul când vine vorba de noutățile emergente ale legilor legate de IA. La naiba, îndeamnă ei, inteligența artificială este vrăjitorie de înaltă tehnologie despre care nu știm prea multe în calitate de legiuitori, prin urmare, logica spune că este mai bine să ai ceva în paginile legale decât să nu ai nimic acolo.

La suprafață, asta sună cu siguranță convingător. Sapă mai adânc, totuși, și îți dai seama că este potențial hooey, inclusiv și în special în cazul acestei legi specifice. Această lege ar putea fi stipulată cu mai multă pricepere și mai judicios. Nu avem nevoie de poțiuni magice. Nu trebuie să așteptăm până când apar probleme. În momentul în care legea a fost elaborată, s-ar fi putut stabili tipul corect de formulare și detalii.

Să ne asigurăm, de asemenea, că ideea nepotrivită, dezvăluită, că aspectele adopției nu puteau fi ghicite dinainte, este dureros de absurdă. Este legală fluturarea mâinii mumbo-jumbo de tipul cel mai vacu. Există o mulțime de considerente deja cunoscute cu privire la tratarea prejudecăților AI și la efectuarea auditurilor AI care ar fi putut fi ușor introduse în această lege. Același lucru poate fi spus și pentru orice altă jurisdicție care are în vedere instituirea unei astfel de legi. Nu vă lăsați păcăliți să credeți că trebuie doar să recurgem la aruncarea orbește a unei săgeți legale în vânturile sălbatice și să suferim angoasă. O bucată de gândire legală, combinată cu o înțelegere adecvată a IA este deja fezabilă și nu este nevoie să se apuce doar de paie.

Aș putea adăuga, încă mai este timp pentru a remedia acest lucru. Ceasul încă bate. Este posibil să vă treziți înainte ca soneriile de alarmă să înceapă să sune. Sfaturile necesare pot fi obținute și făcute cunoscute. Timpul este scurt, așa că trebuie să i se acorde prioritate cuvenită.

În orice caz, vă rugăm să vă asigurați că înțelegeți accentul aici.

Permiteți-mi să clarific cu ardoare că o astfel de lege privind prejudecățile AI are merite. O să explic de ce pe moment. Voi descrie, de asemenea, ce probleme există cu această nouă lege despre care mulți ar spune că este prima care a fost introdusă vreodată în cărțile juridice (există și alte variante, poate nu chiar ca aceasta).

Într-adevăr, vă puteți aștepta ca legi similare să apară treptat în toată țara. O preocupare notabilă este că, dacă această încercare de primă mutare a orașului New York merge prost, ar putea determina restul țării să fie precaut să adopte astfel de legi. Aceasta nu este lecția potrivită de învățat. Lecția corectă este că, dacă ai de gând să scrii o astfel de lege, fă-o cu prudență și cu atenția cuvenită.

Legile aruncate în cărți fără o verificare adecvată pot fi destul de supărătoare și pot crea tot felul de dificultăți în aval. În acest sens, vă rugăm să nu aruncați copilul afară cu apa de la baie (o vorbă veche, probabil că ar trebui să fie pensionată). Esența este că astfel de legi pot fi cu adevărat productive și protectoare atunci când sunt redactate corect.

Acesta anume, din păcate, nu va face acest lucru pe poartă.

Tot felul de îndrumări panicate sunt obligate să vină de la autorii și cei care aplică legea. Marcați-vă calendarele pentru sfârșitul lunii ianuarie și până în februarie 2023 pentru a urmări cum urmeazã conflictul. Arătarea cu degetul va fi extrem de intensă.

Nimeni nu se chinuie în mod deosebit în acest moment pentru că legea nu a aterizat încă pe capetele angajatorilor care vor fi afectați de noua lege. Imaginați-vă că acesta este, metaforic vorbind, un fel de cutremur care va avea loc în primele săptămâni din 2023. Puțini se pregătesc pentru cutremur. Mulți nici măcar nu știu că cutremurul este deja trecut pe calendar. Toate acestea fiind spuse, odată ce va avea loc cutremurul, o mulțime de companii foarte uimite și șocate se vor întreba ce s-a întâmplat și de ce a trebuit să apară mizeria.

Toate acestea au implicații semnificative de etică AI și oferă o fereastră utilă către lecțiile învățate (chiar înainte ca toate lecțiile să se întâmple) atunci când vine vorba de încercarea de a legifera AI. Pentru acoperirea mea continuă și extinsă a eticii AI, IA etică, împreună cu Legea AI în mijlocul aspectelor legale ale guvernării AI pot fi găsite la linkul aici și linkul aici, doar pentru a numi doar câteva.

Această poveste juridică de nenorocire se referă la preocupările emergente cu privire la AI de astăzi și în special la utilizarea Machine Learning (ML) și Deep Learning (DL) ca formă de tehnologie și modul în care este utilizată. Vedeți, există utilizări ale ML/DL care tind să implice ca IA să fie antropomorfizată de către publicul larg, crezând sau alegând să presupună că ML/DL este fie AI sensibilă, fie aproape de (nu este). În plus, ML/DL poate conține aspecte ale potrivirii modelelor de calcul care sunt nedorite sau total necorespunzătoare sau ilegale din punct de vedere etic sau juridic.

Ar putea fi util să clarific mai întâi la ce mă refer când mă refer la AI în general și, de asemenea, să ofer o scurtă prezentare generală a învățării automate și a învățării profunde. Există o mare confuzie cu privire la ceea ce înseamnă inteligența artificială. De asemenea, aș dori să vă prezint și preceptele Eticii AI, care vor fi în mod special parte integrantă din restul acestui discurs.

Prezentarea recordului despre AI

Să ne asigurăm că suntem pe aceeași pagină cu privire la natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă.

Nu avem asta.

Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei Singularitatea, vezi acoperirea mea la linkul aici).

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning și Deep Learning, care folosesc potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

O parte a problemei este tendința noastră de a antropomorfiza computerele și în special AI. Atunci când un sistem computerizat sau IA pare să acționeze în moduri pe care le asociem cu comportamentul uman, există un impuls aproape copleșitor de a atribui calități umane sistemului. Este o capcană mentală obișnuită care poate prinde chiar și pe cel mai intransigent sceptic cu privire la șansele de a ajunge la simțire.

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial.

Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vitală pentru producerea AI adecvată, inclusiv pentru evaluarea modului în care etica AI este adoptată de companii.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. Ei avertizează că, dacă adoptăm unele dintre aceste legi privind IA, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense. Vezi, de exemplu, acoperirea mea la linkul aici.

În coloanele anterioare, am acoperit diferitele eforturi naționale și internaționale de a elabora și a adopta legi care reglementează IA, vezi linkul aici, de exemplu. Am tratat, de asemenea, diferitele principii și linii directoare ale eticii IA pe care diferitele națiuni le-au identificat și adoptat, inclusiv, de exemplu, efortul Națiunilor Unite, cum ar fi setul UNESCO de etică IA pe care aproape 200 de țări l-au adoptat, vezi linkul aici.

Iată o listă de temelie utilă a criteriilor sau caracteristicilor AI etice privind sistemele AI pe care le-am explorat anterior îndeaproape:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Se presupune că acele principii de etică AI sunt utilizate cu seriozitate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă lucrează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a subliniat anterior aici, este nevoie de un sat pentru a concepe și a dezvolta IA și pentru care întregul sat trebuie să fie familiarizat și să respecte preceptele de etică AI.

Să ținem lucrurile la pământ și să ne concentrăm pe IA computațională neconștientă de astăzi.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Cred că acum am pregătit scena pentru a discuta suficient despre rolul AI în cadrul rubricii renunțării liniștite.

AI care este folosită în luarea deciziilor de angajare

Legea orașului New York se concentrează pe tema luării deciziilor de angajare.

Dacă în ultima vreme ați încercat să aplicați pentru un loc de muncă modern aproape oriunde pe pământ, probabil că ați întâlnit un element bazat pe inteligență artificială în procesul de luare a deciziilor de angajare. Desigur, s-ar putea să nu știți că este acolo, deoarece ar putea fi ascuns în culise și nu ați avea nicio modalitate gata de a discerne că un sistem AI a fost implicat.

Un slogan comun folosit pentru a se referi la aceste sisteme AI este că sunt luate în considerare Instrumente automate de decizie de angajare, prescurtat ca AEDT.

Să vedem cum legea din NYC a definit aceste instrumente sau aplicații care implică luarea deciziilor de angajare:

  • „Termenul „instrument automatizat de decizie de angajare” înseamnă orice proces de calcul, derivat din învățarea automată, modelarea statistică, analiza datelor sau inteligența artificială, care emite rezultate simplificate, inclusiv un scor, o clasificare sau o recomandare, care este utilizat pentru a ajuta sau înlocuirea deciziei discreționare pentru luarea deciziilor de angajare care au impact asupra persoanelor fizice. Termenul „instrument automatizat de decizie de angajare” nu include un instrument care nu automatizează, sprijină, asista în mod substanțial sau înlocuiește procesele de luare a deciziilor discreționare și care nu afectează în mod semnificativ persoanele fizice, inclusiv, dar fără a se limita la, un filtru de e-mail nedorit, firewall, software antivirus, calculator, foaie de calcul, bază de date, set de date sau altă compilare de date” (NYC, Int 1894-2020, Subcapitolul 25, Secțiunea 20-870).

Voi examina pe scurt această formulare, deoarece este vitală pentru întreaga natură și sfera de aplicare a legii.

În primul rând, așa cum am afirmat de multe ori în scrierile mele, unul dintre cele mai dificile obstacole atunci când scriem legi despre AI constă în încercarea de a defini în mod adecvat ce înseamnă AI. Nu există un standard unic, absolut agreat din punct de vedere legal, la care să fi ajuns toată lumea. Există tot felul de definiții. Unele sunt utile, altele nu. Vezi analizele mele la linkul aici.

S-ar putea să fii tentat să crezi că nu contează în special modul în care am putea defini AI. Îmi pare rău, dar ai greși în privința asta.

Problema este că, dacă definiția AI este specificată vag într-o anumită lege, le permite celor care dezvoltă AI să încerce să ocolească legea, susținând aparent că software-ul sau sistemul lor nu este infuzat cu AI. Ei ar argumenta cu mare îndrăzneală că legea nu se aplică software-ului lor. De asemenea, cineva care folosește software-ul ar putea susține că legea nu îi aparține, deoarece software-ul sau sistemul pe care îl utilizează nu se încadrează în definiția AI stabilită în lege.

Oamenii sunt înșelați așa.

Una dintre cele mai pricepute modalități de a evita să fii bătut de o lege pe care nu o favorizezi este să afirmi că legea nu se aplică în cazul tău. În acest caz, ați încerca să demontați pe fragmentat definiția AEDT. Scopul tău, presupunând că nu vrei ca legea să fie pe spatele tău, ar fi să argumentezi legal că definiția dată în lege este greșită în ceea ce este sau face sistemul tău informatic legat de angajare.

O lege de acest fel poate fi atât ajutată, cât și uneori subjugată prin includerea intenționată a prevederilor de excludere în definiție.

Aruncă o privire din nou la definiția AEDT așa cum este menționată în această lege. Sper că ați observat că există o clauză de excludere care spune „…nu include un instrument care nu automatizează, sprijină, asista în mod substanțial sau înlocuiește procesele de luare a deciziilor discreționare și care nu are un impact material asupra persoanelor fizice…”.

Pe de o parte, baza pentru includerea unei astfel de excluderi este categoric utilă.

Se pare că sugerează (în opinia mea profană) că AEDT trebuie să ofere un scop specific și să fie utilizat într-un mod substanțial. Dacă AEDT este să spunem superficial sau periferic, și dacă decizia de angajare este încă mai degrabă făcută manual, poate că sistemul software utilizat nu ar trebui interpretat ca un AEDT. De asemenea, dacă software-ul sau sistemul nu afectează „material” persoanele fizice (oameni), atunci nu pare să merite să țină picioarele de foc, așa cum ar fi.

În mod rezonabil, nu doriți ca o lege să-și exagereze domeniul de aplicare și să cuprindă totul, inclusiv chiuveta de bucătărie. A face acest lucru este în esență nedrept și împovărător pentru cei pe care legea nu a fost intenționată să îi cuprindă. Ei pot fi prinși într-o mlaștină care se comportă ca una dintre acele plase de pește. Probabil că legile noastre ar trebui să aibă grijă să nu tragă nevinovații în domeniul de aplicare al legii.

Totul este bine și bine.

Un avocat priceput este obligat să realizeze că o clauză de excludere poate fi un fel de card legal de ieșire din închisoare (în afară de aceasta, această lege specifică prevede sancțiuni civile, nu penale, deci ieșire din închisoare observația este pur și simplu metaforică și pentru caracterul puternic aromat). Dacă cineva ar susține că o companie folosea un AEDT în procesarea forței de muncă, una dintre primele modalități de a încerca să depășească această afirmație ar fi să argumenteze că așa-numitul AEDT se afla de fapt în domeniul excluderii. Ați putea încerca să arătați că așa-numitul AEDT nu automatizarea decizia de angajare sau nu a sustine decizia de angajare sau nu asistă substanțial or înlocui procese decizionale discreţionare.

Puteți merge apoi pe calea întortocheată de a identifica ce înseamnă cuvintele „automatizare”, „sprijin”, „asista în mod substanțial” sau „înlocuiește” în acest context. Este o gaură legală destul de utilă. Se poate face un caz convingător conform căruia software-ul sau sistemul presupus a fi un AEDT face parte din indicațiile de excludere. Prin urmare, nici un rău, nici o greșeală, cu privire la această lege specială.

În mod evident, avocații autorizați ar trebui consultați pentru astfel de chestiuni (nici o aparență de consiliere juridică nu este indicată aici și aceasta este în întregime o părere laic).

Ideea mea aici este că va exista un spațiu de mișcare în această nouă lege. Spațiul de mișcare va permite unor angajatori care folosesc cu adevărat un AEDT să găsească probabil o lacună pentru a ocoli utilizarea AEDT. Cealaltă față a acelei monede este că ar putea exista firme care nu folosesc cu adevărat un AEDT care vor fi captivate de această lege. S-ar putea afirma că orice ar fi folosit a fost într-adevăr un AEDT și vor trebui să găsească un mijloc pentru a arăta că software-ul sau sistemele lor au intrat în afara AEDT și în prevederea de excludere.

Putem face această predicție îndrăzneață:

  • Vor exista, fără îndoială, angajatori care folosesc cu bună știință un AEDT care ar putea încerca să se îndepărteze de responsabilitățile lor legale.
  • În mod inevitabil, vor exista angajatori care nu folosesc un AEDT care vor fi blocați în afirmațiile că folosesc un AEDT, forțându-i să facă un efort „în plus” pentru a demonstra că nu folosesc un AEDT.

Voi expune în continuare aceste numeroase permutări și combinații când vom ajunge mai departe în această discuție. Avem mult mai mult teren de parcurs.

Utilizarea unui AEDT în sine nu este partea din această problemă care dă naștere unor preocupări demonstrative, ci modul în care AEDT își desfășoară acțiunile care provoacă ira legală. Cheia este că, dacă și AEDT introduce probabil părtiniri legate de luarea deciziilor de angajare, atunci ești într-o apă potențial fierbinte (ei bine, cam).

Cum să știm dacă un AEDT introduce de fapt părtiniri încărcate de IA într-un efort de luare a deciziilor de angajare?

Răspunsul conform acestei legi este că urmează să fie efectuat un audit AI.

Am abordat anterior și adesea natura auditurilor AI și ceea ce sunt acestea, împreună cu observarea dezavantajelor existente și fațete prost definite, cum ar fi la linkul aici și linkul aici, printre multe alte postări similare. Simplu spus, ideea este că, la fel cum ați putea efectua un audit financiar al unei firme sau ați face un audit tehnologic legat de un sistem informatic, puteți face un audit pe un sistem AI. Folosind tehnici, instrumente și metode de audit specializate, examinezi și evaluezi în ce constă un sistem AI, inclusiv, de exemplu, încercând să verifici dacă conține părtiniri de un fel sau altul.

Aceasta este o zonă de atenție în plină dezvoltare.

Vă puteți aștepta ca acest subdomeniu al auditării, care este dedicat auditului AI, va continua să crească. Este ușor evident că, pe măsură ce vom avea din ce în ce mai multe sisteme AI dezlănțuite pe piață și, la rândul lor, vor exista din ce în ce mai multe solicitări pentru audituri AI. Noile legi vor ajuta la declanșarea acestui lucru. Chiar și fără aceste legi, vor exista multe audituri AI, deoarece oamenii și companiile afirmă că au fost nedreptățiți de AI și vor căuta să ofere o indicație tangibilă documentată că prejudiciul a fost prezent și legat de IA care este utilizată.

Auditorii AI vor fi fierbinți și foarte solicitați.

Poate fi o muncă interesantă. Un element poate palpitant presupune a fi cufundat în cea mai recentă și mai bună IA. AI continuă să avanseze. Pe măsură ce se întâmplă acest lucru, un auditor inteligent AI va trebui să fie atent. Dacă sunteți un auditor care s-a săturat să facă audituri convenționale de zi cu zi, arena de auditare AI intotdeauna nouă promit (spun asta pentru a ridica parțial statura auditorilor, deoarece aceștia sunt adesea eroii nevestiți care lucrează în tranșee și tind să fie neglijate pentru eforturile lor).

În afară de aceasta, am fost auditor certificat de sisteme informatice (o astfel de desemnare este CISA) și am efectuat audituri IT (tehnologia informației) de multe ori de-a lungul multor ani, inclusiv audituri AI. De cele mai multe ori, nu obții recunoașterea meritată pentru astfel de eforturi. Probabil poți ghici de ce. În general, auditorii tind să găsească lucruri care sunt greșite sau stricate. În acest sens, ele sunt destul de utile, deși acest lucru poate fi perceput de unii ca o veste proastă, iar mesagerul veștilor proaste nu este de obicei plasat în mod special pe un piedestal.

Revenind la problema în discuție.

În ceea ce privește legea NYC, iată ce spune legea despre auditarea AI și încercarea de a descoperi părtinirile AI:

  • „Termenul „audit de părtinire” înseamnă o evaluare imparțială de către un auditor independent. Un astfel de audit de părtinire trebuie să includă, dar fără a se limita la, testarea unui instrument automatizat de decizie de angajare pentru a evalua impactul disparat al instrumentului asupra persoanelor din orice categorie din componenta 1, care trebuie raportată de către angajatori, în conformitate cu subsecțiunea (c) din secțiunea 2000e-8 din titlu. 42 din codul Statelor Unite, așa cum este specificat în partea 1602.7 din titlul 29 din codul reglementărilor federale” (NYC, Int 1894-2020, Subcapitolul 25, Secțiunea 20-870).

Ca o recapitulare, iată unde ne aflăm până acum în ceea ce privește despachetarea acestei legi:

  • Legea acoperă instrumentele automate de decizie de angajare (AEDT)
  • O definiție a sorturilor este inclusă pentru a identifica ce este un AEDT
  • Definiția AEDT menționează și prevederi de excludere
  • Esența este că legea vrea să expună părtinirile AI în AEDT
  • Pentru a ne da seama dacă sunt prezente părtiniri ale AI, trebuie efectuat un audit AI
  • Auditul AI va face cunoscute eventualele prejudecăți ale AI

În continuare putem săpă mai mult în lege.

Iată în ce constă o decizie de angajare:

  • „Termenul „decizie de angajare” înseamnă selectarea candidaților pentru angajare sau a angajaților pentru promovare în oraș” (NYC, Int 1894-2020, Subcapitolul 25, Secțiunea 20-870).

Rețineți că aspectul de delimitare al „orașului” sugerează că problema se referă numai la circumstanțe legate de ocuparea forței de muncă din NYC. De asemenea, este de remarcat faptul că o decizie de angajare, așa cum este definită, implică o selecție a candidaților, care este conotația obișnuită a ceea ce considerăm că este o decizie de angajare, plus că include și promovări.

Acesta este un dublu zgomot în sensul că firmele vor trebui să realizeze că trebuie să fie la curent cu modul în care AEDT lor (dacă folosesc unul) este utilizat pentru setările inițiale de angajare și, de asemenea, atunci când promovează în cadrul companiei. Probabil că puteți ghici sau presupune că multe firme nu vor fi foarte conștiente de faptul că elementul de promovare se află și în această rubrică. Ei vor trece inevitabil cu vederea acea construcție suplimentară pe propria lor răspundere.

Voi oferi în continuare un extras cheie suplimentar din lege pentru a lumina esența a ceea ce este interpretat ca fiind ilegal prin această lege:

  • „Cerințe pentru instrumentele automate de decizie de angajare. A. În oraș, este ilegal ca un angajator sau o agenție de ocupare a forței de muncă să folosească un instrument automat de decizie de angajare pentru a selecta un candidat sau angajat pentru o decizie de angajare, cu excepția cazului în care: 1. Un astfel de instrument a făcut obiectul unui audit de părtinire efectuat cel mult cu un an înainte de utilizarea unui astfel de instrument; și 2. Un rezumat al rezultatelor celui mai recent audit de părtinire a unui astfel de instrument, precum și data de distribuție a instrumentului căruia i se aplică auditul, a fost pus la dispoziția publicului pe site-ul web al angajatorului sau al agenției de ocupare a forței de muncă înainte de utilizarea un astfel de instrument...” (NYC, Int 1894-2020, Subcapitolul 25, Secțiunea 20-871). Există subclauze suplimentare pe care ați putea dori să le aruncați o privire, dacă sunteți foarte interesat de formularea legală.

Scepticii și criticii au susținut că acest lucru pare oarecum cald în ceea ce privește activitatea ilegală care este denunțată.

Ei spun că legea se concentrează doar în rest și minim efectuarea un audit AI și Publicitatea rezultatele, mai degrabă decât dacă auditul AI a descoperit părtiniri AI și ce ramificații a avut acest lucru în luarea deciziilor de angajare care intră în sfera de aplicare a acestei legi. În esență, este aparent ilegal nu alegeți să efectuați un astfel de audit AI (dacă este cazul, așa cum sa discutat mai devreme), plus, de asemenea, este ilegal dacă efectuați auditul AI, dar nu nu face publicitate.

Legea pare tăcută cu privire la întrebarea dacă părtinirile AI au fost detectate și prezente sau nu. De asemenea, tăcerea asupra faptului dacă părtinirile AI au afectat pe cineva legat de o activitate importantă de luare a deciziilor de angajare. Cheia este să aparent în mod clar „doar” să efectuați un audit AI și să spuneți despre asta.

Această lege nu merge suficient de departe?

O parte a contraargumentului pentru a susține că acest lucru este aparent satisfăcător în ceea ce privește gama sau domeniul de aplicare a ceea ce cuprinde această lege este că, dacă un audit AI identifică prejudecăți AI și dacă acele părtiniri AI sunt legate de anumite instanțe de luare a deciziilor de angajare, persoana respectivă. sau persoanele astfel vătămate ar fi în măsură să urmărească angajatorul sub alte legi. Astfel, nu este necesar să se includă acest aspect în această lege specială.

Se presupune că această lege este menită să scoată la lumină astfel de chestiuni.

Odată ce lumina zilei este aruncată asupra acestor practici nefaste, pot fi urmărite toate felurile de alte căi legale dacă părtinirile AI există și au impact asupra oamenilor. Fără această lege, argumentul susține că cei care folosesc AEDT-uri ar face acest lucru în timp ce ar putea fi nebuni și ar avea potențial tone de părtiniri AI, pentru care cei care caută un loc de muncă sau cei care caută promovări nu ar ști că are loc.

Aduceți-le la suprafață. Fă-i să spună. Treci sub capotă. Vezi ce este în interiorul acelui motor. Aceasta este mantra în acest caz. Din această ieșire la suprafață și povestire, pot fi întreprinse acțiuni suplimentare.

Pe lângă solicitarea de acțiuni în justiție ca urmare a clarificării faptului că un audit AI a raportat, probabil, că au existat părtiniri AI, există și convingerea că publicarea acestor rezultate va aduce repercusiuni reputaționale. Angajatorii cărora li se arată că folosesc AEDT-uri care au prejudecăți ale inteligenței artificiale vor suferi probabil mânii societății, cum ar fi prin intermediul rețelelor sociale și altele asemenea. Ei vor fi expuși pentru faptele lor rele și rușinați să-și corecteze comportamentul și s-ar putea, de asemenea, să se trezească lipsiți de oameni care caută să lucreze acolo din cauza reținerilor că părtinirile AI împiedică angajarea sau uzurparea promoțiilor.

Sancțiunile menționate asociate cu ilegalitatea sunt următoarele:

  • „Penalize. A. Orice persoană care încalcă orice prevedere a acestui subcapitol sau orice regulă promulgată în conformitate cu acest subcapitol este pasibilă de o penalitate civilă de cel mult 500 USD pentru prima încălcare și fiecare încălcare suplimentară care are loc în aceeași zi cu prima încălcare și nu mai puțin de 500 USD sau mai mult de 1,500 USD pentru fiecare încălcare ulterioară” (NYC, Int 1894-2020, Subcapitolul 25, Secțiunea 20-872). Există subclauze suplimentare pe care ar putea dori să le aruncați o privire, dacă sunteți foarte interesat de formularea legală.

Scepticii și criticii susțin că sancțiunile nu sunt suficient de dure. Se presupune că o firmă mare ar batjocori sau râde de amenzile minuscule implicate. Alții subliniază că amenda ar putea ajunge să fie mai mult decât se vede, astfel încât, dacă o firmă ar avea o mie de dolari de încălcări în fiecare zi (doar un scenariu, există o mulțime de alte scenarii), valoarea unui an ar fi în jur. 365,000 USD, presupunând că firma pur și simplu a ignorat legea timp de un an întreg și a scăpat de acest lucru (pare greu de imaginat, dar s-ar putea întâmpla și ar putea chiar să apară mai mult timp sau pentru o culminare mai mare a amenzilor zilnice, în teorie).

Între timp, unii sunt îngrijorați de întreprinderile mai mici și de amenzile asociate. Dacă o mică întreprindere care abia își face rostul este lovită de amenzi și se presupune că nu a făcut acest lucru printr-o motivație deliberată de a eluda legea, amenzile le-ar putea afecta în mod semnificativ afacerea care se clătina.

Considerațiile problematice cheie în discuție

Am o întrebare simplă și simplă pentru tine.

În contextul acestei legi, ce reprezintă exact un audit AI?

În mod problematic, nu există nicio indicație definitivă în narațiunea legii. Tot ceea ce ni se pare că ni se spune este că „auditul de părtinire” urmează să fie efectuat prin „o evaluare imparțială de către un auditor independent” (conform textului legii).

Poți să conduci un camion Mac prin acea gaură deschisă.

Iata de ce.

Luați în considerare acest exemplu destul de deconcertant. Un escroc contactează o firmă din NYC și explică că oferă un serviciu astfel încât să facă un așa-numit „audit de părtinire” al AEDT. Ei promit că vor face acest lucru „imparțial” (indiferent ce înseamnă asta). Ei se prezintă ca un auditor independent și s-au uns ca unul singur. Nu este nevoie de niciun fel de instruire în contabilitate sau audit, diplome, certificări sau ceva de genul. Poate că își dau de cap să tipărească niște cărți de vizită sau să creeze în grabă un site web în care își prezintă statutul de auditor independent.

Ei vor percepe companiei o taxă modestă de 100 USD. Serviciul lor constă probabil în a pune câteva întrebări despre AEDT și apoi a proclama că AEDT este lipsit de părtinire. Ei trimit apoi un raport care are o dimensiune de o pagină și declară „rezultatele” așa-numitului audit. Firma postează cu respect acest lucru pe site-ul său web.

Firma a respectat această lege?

Tu sa-mi spui.

Se pare că au.

S-ar putea să fii imediat surprins de faptul că auditul a fost efectuat într-un mod superficial (adică a fi politicos și generos în acest scenariu special). S-ar putea să fii deranjat de faptul că detectarea părtinirii (sau lipsa acesteia) a fost poate în esență predeterminată (voila, pari să nu fii părtinire). S-ar putea să fii supărat că rezultatele postate ar putea da o aură de a fi trecut un audit riguros de către un auditor de bună credință experimentat, instruit, cu experiență și certificat.

Da, asta face lucruri mai mari.

Un angajator ar putea fi ușurat că a îndeplinit această cerință „prostească” și ar fi fericit că i-a costat doar 100 de dolari. Angajatorul ar putea să-și dea seama în mod intern și în liniște că auditul independent a fost o șaradă, dar se pare că nu este în sarcina lor să decidă. Li s-a prezentat un auditor independent pretins, auditorul a făcut munca pe care auditorul a spus-o că este conformă, firma a plătit pentru aceasta, au obținut rezultatele și au publicat rezultatele.

Unii angajatori vor face acest lucru și vor realiza că respectă legea cu ochiul cu ochiul. Cu toate acestea, ei vor crede că sunt pe deplin conformi.

Alți angajatori ar putea fi păcăliți. Tot ce știu ei este necesitatea de a respecta legea. Din fericire pentru ei (sau așa presupun ei), un „auditor independent” îi contactează și le promite că un audit și un rezultat al plângerii pot fi obținute pentru 100 USD. Pentru a evita amenda zilnică de 500 de dolari sau mai mult, firma crede că li s-a înmânat un cadou din ceruri. Ei plătesc cei 100 de dolari, „auditul” are loc, primesc o notă de sănătate gratuită cu privire la lipsa părtinirilor AI, publică rezultatele și uită de asta până data viitoare când trebuie să facă un alt astfel de audit. .

Cum ar trebui să știe fiecare firmă din NYC care este supusă acestei legi ce înseamnă respectarea de bună credință a legii?

În cazul în care nu aveți deja oarecum stomacul agitat, putem înrăutăți lucrurile. Sper că nu ați mâncat în ultimele ore de când următoarea răsturnare va fi greu de păstrat intactă.

Eşti gata?

Acest furnizor de servicii fals se dovedește a fi mai dezamăgitor decât ați fi crezut. Ei determină firma să se înscrie pentru serviciul de 100 USD pentru a efectua auditul imparțial de părtinire ca auditor independent. Iată, ei fac „auditul” și descoperă că există părtiniri în fiecare colț și colț al AEDT.

Au prejudecăți ale inteligenței artificiale precum o infestare cu gândaci.

Da, spune firma, ce putem face în privința asta?

Nicio problemă, li se spune, putem remedia acele prejudecăți ale AI pentru tine. Vă va costa doar 50 USD pentru fiecare astfel de părtinire care a fost găsită. Bine, spune firma, vă rog să le reparați, mulțumesc pentru acest lucru. Furnizorul de servicii face un pic de codificare blarney și îi spune companiei că a remediat o sută de prejudecăți ale AI și, prin urmare, le va percepe 5,000 USD (adică 50 USD per distorsiunea AI care urmează să fie remediată, înmulțită cu cele 100 găsite).

Aaa, firma se simte ciupit, dar totuși este mai bine decât să se confrunte cu încălcarea de 500 de dolari sau mai mult pe zi, așa că ei plătesc „auditorul independent” și apoi primesc un nou raport care arată că sunt acum liberi de părtiniri. Ei postează asta cu mândrie pe site-ul lor.

Nu știu ei că asta a fost o înșelătorie, o escrocherie, o înșelătorie.

Ați putea insista că acest furnizor de servicii ar trebui să fie pedepsit pentru înșelăciunea lor. Prinderea și oprirea acestor șmecheri va fi mult mai greu decât vă puteți imagina. La fel cum ai urmări acei prinți cu sediul în străinătate care au o avere pentru tine se află probabil într-un teritoriu străin dincolo de dreptul Statelor Unite, același lucru s-ar putea întâmpla și în acest caz.

Așteptați-vă să apară o industrie de cabană din cauza acestei noi legi.

Vor exista auditori de bună credință care vor încerca să ofere aceste servicii. Bine pentru ei. Vor fi auditori sommari care merg după această lucrare. Vor fi auditori proclamați în mod fals care merg după această lucrare.

Am menționat că scenariul furnizorului de servicii presupunea solicitarea de 100 USD pentru a face așa-numitul audit AI. A fost doar un substituent inventat. Poate că unii vor percepe 10 USD (pare incomplet). Poate vreo 50 de dolari (încă incomplet). etc.

Să presupunem că un furnizor de servicii spune că va costa 10,000 USD pentru a face munca.

Sau 100,000 de dolari pentru a o face.

Posibil 1,000,000 de dolari pentru a face asta.

Unii angajatori nu vor avea nicio idee despre cât ar putea sau ar trebui să coste acest lucru. Marketingul acestor servicii va fi gratuit pentru toți. Aceasta este o lege care face bani pentru cei care efectuează în mod legitim aceste servicii și un generator de bani pentru cei care sunt și ei subordonați în a face acest lucru. Va fi greu de știut care este care.

De asemenea, vă voi ruga să contemplați o altă gaură căscată.

În contextul acestei legi, ce reprezintă exact o prejudecată AI?

În afară de menționarea codului de reglementări federale al Statelor Unite (aceasta nu răspunde în mod special la întrebarea privind prejudecățile AI și nu servește, prin urmare, ca o soluție sau soluție), ați fi greu să afirmați că acest nou legea oferă orice indicație substanțială cu privire la ce sunt prejudecățile IA. Încă o dată, aceasta va fi complet deschisă unor interpretări foarte disparate și nu veți ști în mod special ce a fost căutat, ce a fost găsit și așa mai departe. De asemenea, munca desfășurată chiar și de auditorii AI de bună credință va fi aproape probabil incomparabilă cu altul, astfel încât fiecare va tinde să-și folosească definițiile și abordările proprii.

Pe scurt, putem urmări cu îngrijorare și îngrijorare ceea ce se vor confrunta angajatorii ca urmare a acestei legi formulate deși bine intenționate:

  • Unii angajatori vor cunoaște legea și se vor conforma cu seriozitate și pe deplin în măsura posibilităților lor
  • Unii angajatori vor ști despre lege și vor respecta marginal calea cea mai subțire, cea mai ieftină și, eventual, neplăcută pe care o pot găsi sau care le ajunge la ușă.
  • Unii angajatori vor ști despre lege și vor crede că nu se încadrează în domeniul de aplicare al legii, așa că nu vor face nimic în acest sens (deși se pare că ar putea fi în domeniul de aplicare)
  • Unii angajatori vor ști despre lege și vor decide categoric să o ignore, poate crezând că nimeni nu va observa sau că legea nu va fi aplicată, sau că legea va fi considerată inaplicabilă etc.
  • Unii angajatori nu vor ști despre lege și vor fi prinși cu picioarele plate, încercând să se conformeze
  • Unii angajatori nu vor ști despre lege și vor fi lasați lamentabil de escrocii
  • Unii angajatori nu vor ști despre lege, nu sunt în domeniul de aplicare, dar totuși sunt lașiți de escrocii care îi convin că sunt în domeniul de aplicare
  • Unii angajatori nu vor ști despre lege și nu vor face nimic în privința ei, în timp ce, în mod miraculos, nu vor fi prinși sau băgați pentru supravegherea lor.
  • Altele

Un aspect crucial de reținut este amploarea sau amploarea asociată cu această nouă lege.

Conform diferitelor statistici raportate cu privire la numărul de afaceri din New York City, numărul este de obicei indicat ca undeva în jur de 200,000 de întreprinderi (să folosim asta ca un ordin de mărime). Presupunând că aceasta este o aproximare rezonabilă, se presupune că acele întreprinderi în calitate de angajatori sunt supuse acestei noi legi. Astfel, luați câteva moduri menționate mai sus în care angajatorii vor reacționa la această lege și gândiți-vă câte vor fi în fiecare dintre diferitele găleți pe care tocmai le-am menționat.

Este o problemă de scalare destul de uluitoare.

În plus, conform statisticilor raportate, există probabil 4 milioane de locuri de muncă în sectorul privat în New York City, plus un număr estimat de aproximativ 300,000 de lucrători guvernamentali angajați de guvernul NYC (din nou, folosiți-le ca ordine de mărime mai degrabă decât ca numărători precise). Dacă țineți cont de faptul că noii angajați se încadrează aparent în domeniul de aplicare al acestei noi legi, împreună cu promovările asociate cu toți acești lucrători existenți și viitori, numărul de angajați care vor fi într-un fel sau altul atinși de această lege este, sincer, uimitor. .

Marele Măr are o nouă lege care, la prima vedere, pare a fi inofensivă și aparent neglijabilă sau banală, dar când îți dai seama de factorii de scalare implicați, ei bine, îți poate face capul să se învârtească.

Concluzie

Am menționat la începutul acestei discuții că aceasta este o nouă lege bine intenționată.

Tot ceea ce tocmai am descris ca potențiale lacune, omisiuni, lacune, probleme și altele asemenea, ar putea fi ușor anticipat. Aceasta nu este știință rachetă. Aș putea adăuga, există și mai multe preocupări inerente și aspecte confuze ale acestei legi pe care, din cauza constrângerilor de spațiu, nu le-am semnalat.

Le puteți găsi la fel de ușor pe cât puteți trage peștii într-un butoi.

Legile de acest fel ar trebui elaborate cu atenție pentru a încerca și a preveni aceste tipuri de inconveniente furtive. Presupun că compozitorii serioși au căutat să scrie o lege despre care credeau că este relativ solidă și că poate, în cel mai rău caz, ar avea niște picături mici pe aici sau colo. Din păcate, este un furtun de picături. Va fi nevoie de multă bandă adezivă.

Ar fi putut legea să fie scrisă într-un mod mai elucidat pentru a închide aceste lacune destul de aparente și probleme asociate?

Da, din belsug.

Acum, acesta fiind cazul, ați putea îndemna cu indignare că o astfel de lege ar fi, fără îndoială, mult mai lungă. Există întotdeauna un compromis între a avea o lege care continuă și continuă, devenind greoaie, față de a fi succint și compact. Cu toate acestea, nu doriți să obțineți concisitate cu pierderea a ceea ce ar fi claritatea și specificitatea de fond și meritorie. O lege scurtă care permite șmecherii este plină de necazuri. O lege mai lungă, chiar dacă aparent mai complexă, ar fi de obicei un compromis demn dacă evită, previne sau cel puțin minimizează problemele din aval în timpul etapei de adoptare.

Sfântul Augustin a spus celebrul: „Mi se pare că o lege nedreaptă nu este deloc lege”.

Am putea oferi un corolar că o lege justă care este compusă dintr-un limbaj problematic este o lege care imploră să producă probleme dure. În acest caz, ni se pare că rămânem cu cuvintele înțelepte ale marelui jurist Oliver Wendell Holmes Jr., și anume că o pagină de istorie valorează câte o liră de logică.

Urmăriți cum istoria este pe cale să se facă în curând.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- prejudecăți-audituri-intră-îngrădiți/