Etica IA dezorientată de acei eticieni ai IA care „instigă” practicile etice de IA

Sărarea a apărut destul de mult în știri în ultima vreme.

Nu mă refer la sarea pe care o pui în mâncare. În schimb, aduc în discuție „sărarea” care este asociată cu o practică provocatoare și aparent foarte controversată, asociată cu interacțiunea dintre muncă și afaceri.

Vedeți, acest tip de sărare implică împrejurarea în care o persoană încearcă să fie angajată într-o firmă pentru a iniția în mod aparent sau unii ar putea spune că instigă înființarea unui sindicat în cadrul acesteia. Cele mai recente știri care discută despre acest fenomen indică firme precum Starbucks, Amazon și alte firme binecunoscute și chiar mai puțin cunoscute.

Voi acoperi mai întâi elementele de bază ale sărării și apoi voi trece la un subiect asemănător despre care s-ar putea să fii destul de luat pe nepregătite, și anume că pare să existe un fel de sărare care are loc în domeniul Inteligenței Artificiale (AI). Acest lucru are considerații cruciale de etică AI. Pentru acoperirea mea continuă și extinsă a eticii AI și IA etică, consultați linkul aici și linkul aici, Doar pentru a numi câteva.

Acum, să intrăm în elementele de bază ale modului în care funcționează de obicei sărarea.

Să presupunem că o companie nu are sindicate în forța de muncă. Cum ar putea un sindicat să capete cumva un loc în acea firmă? Unul dintre mijloace ar fi să acționezi în afara companiei și să încerci să-i faci apel pe lucrători să adere la un sindicat. Acest lucru ar putea implica prezentarea de bannere în apropierea sediului companiei sau trimiterea de fluturași angajaților sau utilizarea rețelelor sociale și așa mai departe.

Aceasta este un tip de abordare hotărât exterior în interior.

O altă cale ar fi să stimulezi din interior o scânteie care ar putea face mingea să ruleze. Dacă cel puțin un angajat ar putea fi declanșat ca majorete pentru îmbrățișarea unui sindicat la firmă, poate că aceasta ar începe o eventuală cavalcadă internă de sprijin pentru sindicalizarea acolo. Chiar dacă un astfel de angajat nu a servit ca un încurajator absolut, ar putea fi capabil să obțină în liniște sprijin intern în rândul lucrătorilor și să fie o forță relativ ascunsă în cadrul organizației pentru urmărirea sindicalizării.

În acest mod de gândire, un sindicat ar putea lua în considerare modalitățile în care un astfel de angajat poate fi astfel activat. Uniunea ar putea cheltui energie nesfârșită pentru a găsi acel acul în carul de fân. Printre, probabil, sute sau mii de lucrători de la firmă, încercarea de a descoperi așa-zisul ales, în special, care va favoriza sindicalizarea ar putea fi greu de făcut.

Ar fi util să „descoperiți” mai ușor acel lucrător care induce scântei (sau să le inventați, ca să spunem așa).

Acest lucru ne duce la ideea voila că poate face compania să angajeze o astfel de persoană pentru un rol de zi cu zi în firmă. În esență, implantați tipul potrivit de uniune care stimulează persoana în firmă. Nu trebuie să încerci să apelezi la mulțimile de muncitori din exterior și să introduci în schimb singura persoană care activează, astfel încât să știi sigur că scânteia ta este folosită acolo.

Muncitorul nou angajat urmărește apoi să insufle un interes sindical în cadrul companiei, făcând, în același timp, orice slujbă pentru care ar fi fost angajat altfel (exprimând ceea ce este adesea numit „interes real” pentru job). Rețineți că persoana este angajată în mod activ de firmă și efectuează în mod activ munca cerută ca angajat. În tărâmul obișnuit al sărării, aceștia nu sunt doar un lucrător nespecific legat de un loc de muncă, care poate fi încorporat în companie.

Unii au anunțat această abordare.

Ei îndeamnă că economisește timp și resurse în ceea ce privește un sindicat care încearcă să inspire lucrătorii unei firme să ia în considerare aderarea la un sindicat. De obicei, alți angajați sunt mai dispuși să asculte și să fie activați de un coleg. Abordarea alternativă de a încerca din exterior să câștige tracțiune este considerată mai puțin atrăgătoare, prin care un coleg de angajat oferă o motivație puternică lucrătorilor din cadrul companiei în comparație cu unii „din afară” care sunt văzuți într-adevăr ca puțin mai mult decât neimplicați și nepăsători. străinii.

Nu toată lumea este mulțumită de abordarea sărarii.

Companiile vor argumenta adesea că aceasta este o practică abundent furioasă și necinstită. Gestalt general al abordării este că un spion este plasat în mijlocul firmei. Nu pentru asta a fost angajată persoana. Probabil că au fost angajați pentru a-și face treaba declarată, în timp ce, în schimb, toate șmecherii asortate par implantarea diabolică a unui adevărat cal troian.

Cererea reconvențională a sindicatelor este că, dacă persoana își face treaba declarată, atunci nu există nici un rău și nicio greșeală. Probabil, un angajat, sau să spunem Orice angajat al firmei, poate alege de obicei să solicite sindicalizarea. Acest angajat se întâmplă să vrea să facă acest lucru. Faptul că au intrat în companie cu această noțiune în minte este doar ceva pe care orice angajat nou angajat ar putea, de asemenea, să ia în considerare.

Așteptați o secundă, companiile vor replica, acesta este cineva care prin design a vrut să vină în companie în scopul de a începe un punct de sprijin sindical. Aceasta este dorința lor condusă. Angajatul nou angajat a făcut o batjocură față de procesul de angajare și își exploatează în mod nejustificat aspirațiile de căutare a unui loc de muncă ca o pretenție acoperită în avantajul specific al sindicatului.

Ron și rotund acest discurs aprins merge.

Rețineți că există o mulțime de considerente juridice care apar în aceste setări. Toate tipurile de reguli și reglementări care se referă, de exemplu, la Legea națională privind relațiile de muncă (NLRA) și Consiliul național pentru relații de muncă (NRLB) fac parte din aceste gambits. Nu vreau să aveți impresia că lucrurile sunt simple pe aceste fronturi. Numeroase complicații juridice abundă.

De asemenea, ar trebui să ne gândim la varietatea de variații care se joacă cu sărarea.

Luați în considerare posibilitatea ca persoana care dorește să se angajeze să fie deschis un susținător al sindicatului pe tot parcursul procesului de căutare a unui loc de muncă la firmă. Această persoană s-ar putea prezenta la interviul de angajare purtând o cămașă sau altă ținută care arată clar că este pro-sindical. În timpul interviurilor, s-ar putea să-și spună speranța că compania va îmbrățișa într-o zi sindicalizarea. etc.

În acest caz, unii ar afirma că afacerea știa în ce intră. De la început, compania a avut o mulțime de indicii despre intențiile persoanei. Nu te poți plânge după aceea dacă, la angajare, noul angajat va face tot ce poate pentru a aduce sindicatul la ușă. Firma și-a împușcat propriul picior, așa cum ar fi, și orice altceva sunt doar lacrimi de crocodil.

Dansul pe acest subiect este din nou mai complex decât pare. În conformitate cu problemele juridice care pot apărea, cineva care este altfel calificat pentru angajare ar putea, în cazul în care compania de angajare este refuzată, să susțină că a fost trecut cu vederea în mod intenționat ca urmare a unei părtiniri antisindicale a companiei. Încă o dată, NRLA și NRLB sunt atrași în afacerea dezordonată.

Vă voi trece rapid printr-o grămadă de alte considerații care apar în tărâmul sărării. De asemenea, aș dori să știți că sărarea nu este doar un fenomen exclusiv în SUA. Poate apărea și în alte țări. Desigur, legile și practicile țărilor diferă în mod dramatic și, prin urmare, sărarea fie nu este deosebit de utilă, fie poate chiar chiar interzisă în unele localități, în timp ce natura sărării ar putea fi modificată semnificativ pe baza obiceiurilor legale și culturale ale acesteia și ar putea de fapt. mai au putere.

Consultați-vă cu iubitul avocat pentru legislația muncii în orice jurisdicție de interes vă privește.

Câțiva factori suplimentari despre sărare includ:

  • Se plătește. Uneori, persoana este plătită de sindicat pentru a îndeplini sarcina de a se angaja la firmă. Ei ar putea fi apoi plătiți atât de companie, cât și de sindicat în timpul mandatului lor la firmă sau ar putea să nu mai fie plătiți de sindicat odată ce sunt angajați de firmă.
  • Vizibilitate. Uneori, persoana se menține în jos sau rămâne complet tăcută în timpul procesului de angajare în legătură cu intențiile sale de sindicalizare, în timp ce în alte cazuri persoana își exprimă în mod deschis ceea ce intenționează să facă. O abordare aparent la jumătatea drumului este aceea că persoana va spune ce dorește să facă dacă i se cere în mod explicit în timpul interviurilor și, prin urmare, implică faptul că este la latitudinea firmei să descopere astfel de intenții, ceea ce este o povară despre care firmele susțin că este îndoielnic și înțelegător. încordează limitele legale.
  • Sincronizare. Persoana odată angajată ar putea alege să aștepte pentru a-și asuma capacitatea de sindicalizare. Ei ar putea aștepta săptămâni, luni sau chiar ani pentru a se activa. Cu toate acestea, șansele sunt mai probabil să înceapă odată ce s-au aclimatizat cu firmă și și-au stabilit un punct de sprijin personal ca angajat al companiei. Dacă încep imediat, acest lucru ar putea submina încercarea lor de a fi priviți ca un insider și ar putea să-i arunce ca intrus sau străin.
  • Pași făcuți. Uneori, persoana va anunța în mod explicit în cadrul companiei că acum încearcă să îmbrățișeze sindicalizarea, ceea ce s-ar putea întâmpla la scurt timp după angajare sau se poate întâmpla un timp după aceea (conform indicației mele de mai sus despre factorul de timp). Pe de altă parte, persoana ar putea alege să servească într-un rol sub acoperire, furnizând informații sindicatului și nu aducându-și nicio atenție. Acest lucru este uneori criticat ca fiind a alunita de sare, deși alții ar sublinia că persoana ar putea fi altfel supusă riscurilor interne dacă vorbește direct.
  • Posesiune. O persoană care își asumă un efort de sărare ar putea ajunge să fie capabilă să obțină un impuls sindicalizat (sunt o „sărare”). Ei ar putea rămâne la firmă pe tot parcursul procesului de sindicalizare. Acestea fiind spuse, uneori o astfel de persoană alege să părăsească firma care a fost declanșată și optează să meargă la o altă firmă pentru a începe din nou activitățile care a generat scântei. Argumentele cu privire la aceasta sunt intense. Un punct de vedere este că acest lucru demonstrează în mod clar că persoana nu a avut în suflet locul de muncă la firmă. Punctul de vedere contrastant este că probabil că ei se vor găsi în ape tulburi și posibil de nesuportat, rămânând în firmă odată ce efortul de susținere a sindicatului a câștigat tracțiune.
  • Rezultat. O încercare de sărare nu garantează un rezultat anume. S-ar putea ca persoana să crească gradul de conștientizare cu privire la sindicalizare și efortul să înceapă, așadar să fi avut loc o sărare „de succes”. Un alt rezultat este că persoana nu poate obține o astfel de tracțiune. Ei fie renunță la urmărire și rămân la firmă, poate așteptând o altă șansă mai târziu, fie părăsesc firma și caută, de obicei, să facă sărarea la o altă companie.
  • Salter profesionist. Unii oameni se consideră adepți puternici ai sărării și se mândresc că servesc ca sărator, parcă. Ei fac sărarea în mod repetat, trecând de la ferm la ferm pe măsură ce o fac. Alții vor face asta o singură dată, poate din cauza unei anumite preferințe sau pentru a vedea cum este, apoi aleg să nu repete într-un astfel de rol. Vă puteți imagina cu siguranță tipurile de presiuni personale și stres potențial care pot apărea atunci când sunteți într-o capacitate de sare.

Acești factori vor fi suficienți pentru moment pentru a evidenția gama și dinamica sărării. Voi revizui acești factori în contextul considerentelor despre IA și IA etică.

Esența este că unii oameni caută să se angajeze într-o firmă pentru a iniția sau a instiga stabilirea principiilor de etică AI în companie. Aceasta este motivația lor principală pentru a merge la muncă la firmă.

Într-un fel, ei nu fac sărare în scopul sindicalizării, ci în schimb „sărează” pentru a încerca să obțină o companie înrădăcinată în preceptele AI etice.

Voi spune multe mai multe despre acest moment.

Înainte de a aborda mai multă carne și cartofi despre considerentele sălbatice și lânoase care stau la baza sărării într-un context AI, să expunem câteva elemente fundamentale suplimentare pe subiecte profund esențiale. Trebuie să facem o scurtă scufundare în etica AI și în special apariția Machine Learning (ML) și Deep Learning (DL).

S-ar putea să fii vag conștient de faptul că una dintre cele mai puternice voci din aceste zile în domeniul AI și chiar în afara domeniului AI constă în strigarea pentru o mai mare aparență de AI etică. Să aruncăm o privire la ce înseamnă să te referi la AI Ethics și Ethical AI. În plus, vom explora la ce mă refer când vorbesc despre Machine Learning și Deep Learning.

Un anumit segment sau o porțiune a Eticii AI care a atras multă atenție mass-media constă în AI care prezintă părtiniri și inechități nefavorabile. S-ar putea să știți că, atunci când ultima eră a AI a început, a existat o explozie uriașă de entuziasm pentru ceea ce unii numesc acum AI pentru bine. Din păcate, în urma acelei emoții țâșnitoare, am început să fim martori AI pentru rău. De exemplu, diferite sisteme de recunoaștere facială bazate pe inteligență artificială au fost dezvăluite ca conținând prejudecăți rasiale și de gen, despre care am discutat la linkul aici.

Eforturile de a lupta împotriva AI pentru rău sunt în desfășurare activă. Pe lângă strigăt legal urmăririle de a controla greșelile, există, de asemenea, un impuls substanțial către îmbrățișarea eticii AI pentru a îndrepta ticăloșia AI. Ideea este că ar trebui să adoptăm și să aprobăm principiile cheie etice ale IA pentru dezvoltarea și implementarea IA, făcând acest lucru pentru a submina AI pentru rău şi concomitent vestirea şi promovarea preferabilului AI pentru bine.

Pe o noțiune similară, sunt un susținător al încercării de a folosi AI ca parte a soluției la problemele AI, luptând focul cu focul în acest mod de gândire. Am putea, de exemplu, să încorporăm componente etice AI într-un sistem AI care va monitoriza modul în care restul AI-ului face lucrurile și, astfel, ar putea surprinde în timp real orice eforturi discriminatorii, vezi discuția mea la linkul aici. Am putea avea, de asemenea, un sistem AI separat care acționează ca un tip de monitor al eticii AI. Sistemul AI servește ca un supraveghetor pentru a urmări și detecta când o altă IA intră în abisul lipsit de etică (vezi analiza mea asupra unor astfel de capacități la linkul aici).

În scurt timp, vă voi împărtăși câteva principii generale care stau la baza eticii AI. Există o mulțime de astfel de liste care plutesc ici și colo. Ați putea spune că nu există încă o listă singulară de apel universal și concurență. Asta e vestea nefericită. Vestea bună este că cel puțin există liste de etică AI ușor disponibile și tind să fie destul de asemănătoare. În total, acest lucru sugerează că, printr-o formă de convergență rațională, ne găsim calea către o comunalitate generală în ceea ce constă Etica AI.

Mai întâi, să acoperim pe scurt câteva dintre preceptele generale ale IA etică pentru a ilustra ceea ce ar trebui să fie o considerație vitală pentru oricine care creează, folosește sau folosește AI.

De exemplu, așa cum a afirmat Vaticanul în Apel de la Roma pentru etica IA și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale de etică a IA identificate:

  • Transparență: În principiu, sistemele AI trebuie să fie explicabile
  • Includere: Trebuie luate în considerare nevoile tuturor ființelor umane, astfel încât toată lumea să poată beneficia și tuturor indivizilor să li se poată oferi cele mai bune condiții posibile pentru a se exprima și a se dezvolta.
  • Responsabilitate: Cei care proiectează și implementează utilizarea AI trebuie să procedeze cu responsabilitate și transparență
  • Imparţialitate: Nu creați și nu acționați în funcție de părtinire, salvând astfel corectitudinea și demnitatea umană
  • Fiabilitate: Sistemele AI trebuie să poată funcționa în mod fiabil
  • Securitate și confidențialitate: Sistemele AI trebuie să funcționeze în siguranță și să respecte confidențialitatea utilizatorilor.

După cum a afirmat Departamentul de Apărare al SUA (DoD) în documentul lor Principii etice pentru utilizarea inteligenței artificiale și după cum am tratat în profunzime la linkul aici, acestea sunt cele șase principii principale ale eticii AI:

  • Responsabil: Personalul DoD va exercita niveluri adecvate de judecată și grijă, rămânând în același timp responsabil pentru dezvoltarea, implementarea și utilizarea capabilităților AI.
  • Echitabil: Departamentul va lua măsuri deliberate pentru a minimiza părtinirea neintenționată a capabilităților AI.
  • Trasabil: Capacitățile AI ale Departamentului vor fi dezvoltate și desfășurate astfel încât personalul relevant să posede o înțelegere adecvată a tehnologiei, proceselor de dezvoltare și metodelor operaționale aplicabile capacităților AI, inclusiv metodologii transparente și auditabile, surse de date și procedura de proiectare și documentație.
  • De încredere: Capacitățile AI ale Departamentului vor avea utilizări explicite, bine definite, iar siguranța, securitatea și eficacitatea acestor capacități vor fi supuse testării și asigurării în cadrul acelor utilizări definite de-a lungul întregului ciclu de viață.
  • Guvernabil: Departamentul va proiecta și proiecta capabilități AI pentru a-și îndeplini funcțiile preconizate, având în același timp capacitatea de a detecta și de a evita consecințele neintenționate și capacitatea de a dezactiva sau dezactiva sistemele implementate care demonstrează un comportament neintenționat.

Am discutat, de asemenea, despre diferite analize colective ale principiilor de etică AI, inclusiv am acoperit un set conceput de cercetători care a examinat și condensat esența numeroaselor principii naționale și internaționale de etică AI într-o lucrare intitulată „The Global Landscape Of AI Ethics Guidelines” (publicată în Natură), și pe care acoperirea mea îl explorează la linkul aici, care a condus la această listă cheie:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

După cum ați putea ghici direct, încercarea de a stabili specificul care stau la baza acestor principii poate fi extrem de greu de realizat. Cu atât mai mult, efortul de a transforma acele principii largi în ceva complet tangibil și suficient de detaliat pentru a fi folosit la crearea sistemelor AI este, de asemenea, o nucă greu de spart. În general, este ușor să faci câteva semne de mână despre ce sunt preceptele de etică AI și cum ar trebui respectate în general, în timp ce este o situație mult mai complicată în codarea AI, care trebuie să fie adevăratul cauciuc care se întâlnește cu drumul.

Principiile eticii AI trebuie să fie utilizate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a afirmat mai devreme, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ne asigurăm, de asemenea, că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am fi vrut să speculăm în mod sălbatic despre sensibil AI, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea AI super-inteligentă, este de imaginat că o astfel de AI ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Să menținem lucrurile mai la pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Să revenim la concentrarea noastră asupra sărării într-un context AI.

În primul rând, eliminăm orice aparență a elementului de sindicalizare din terminologia sărării și, în schimb, utilizăm doar sărarea ca paradigmă sau abordare generalizată ca șablon. Așadar, vă rugăm să lăsați deoparte fațetele legate de sindicat în scopul acestei discuții de sărare legate de IA.

În al doilea rând, așa cum am menționat mai devreme, sărarea în acest context AI implică faptul că unii oameni ar putea căuta să se angajeze într-o firmă pentru a iniția sau a instiga stabilirea principiilor de etică AI în companie. Aceasta este motivația lor principală pentru a merge la muncă la firmă.

Pentru a clarifica, sunt absolut mulți care sunt angajați într-o firmă și au deja în minte că Etica AI este importantă. Acest lucru, deși, nu este în fruntea bazei lor pentru a încerca să se angajeze de către firma specială de interes. În esență, vor fi angajați pentru a face un fel de activitate de dezvoltare sau implementare a AI și pentru care aduc cu ușurință în ei o credință stridentă în IA etică.

Apoi vor lucra cât pot de bine pentru a infuza sau a inspira considerații de etică AI în companie. Bine pentru ei. Avem nevoie de mai multe care să aibă asta ca o dorință din inimă.

Dar nu asta este sărarea la care fac aluzie aici. Imaginați-vă că cineva alege o anumită companie care pare să nu facă mare lucru, dacă nu are legătură cu îmbrățișarea eticii AI. Persoana decide că va fi angajată de acea firmă dacă poate face acest lucru într-un loc de muncă de zi cu zi AI (sau poate chiar într-un rol non-AI), iar atunci obiectivul său principal va fi să instaleze sau să instige principiile de etică AI în companie. Aceasta nu este datoria lor principală și nici măcar nu este enumerată în sarcinile lor de serviciu (menționez acest lucru pentru că, evident, dacă cineva este angajat pentru a aduce în mod intenționat Etica AI, nu este „sărare” în felul conotației și aparentei aici).

Persoanei nu îi pasă în mod special de job în sine. Sigur, ei vor face în orice constă munca și, probabil, sunt calificați corespunzător pentru a face acest lucru. Între timp, agenda lor reală este să stimuleze IA etică să devină parte integrantă a companiei. Aceasta este misiunea. Acesta este scopul. Munca în sine este doar un mijloc sau un vehicul care le permite să facă acest lucru din interior.

Ai putea spune că ar putea face același lucru din afara firmei. Ei ar putea încerca să facă lobby echipelor AI din companie pentru a se implica mai mult în AI Ethics. Ar putea încerca să facă de rușine firma să facă acest lucru, poate prin postarea pe bloguri sau luând alți pași. Și așa mai departe. Ideea este că ei ar fi în continuare un străin, așa cum s-a subliniat mai devreme când se discută despre premisa generală a sărării.

Persoana care sărează AI este înșelătoare?

Ne reamintește din nou aceeași întrebare pusă despre contextul unional al sărării. Persoana ar putea insista că nu există deloc înșelăciune. S-au angajat să facă o treabă. Ei fac treaba. Se întâmplă că, în plus, ei sunt un avocat intern al eticii AI și lucrează cu putere pentru a-i determina pe alții să facă același lucru. Fără rău, fără greșeală.

De asemenea, ei ar sublinia probabil că nu există niciun dezavantaj special în stimularea lor către firma către IA etică. În cele din urmă, acest lucru va ajuta compania să evite procesele care altfel ar putea apărea dacă IA este produsă care nu respectă preceptele de etică AI. Astfel, ei salvează compania de ea însăși. Chiar dacă persoanei poate că nu-i pasă în mod special să facă treaba în cauză, ea își face treaba și, în același timp, face compania mai înțeleaptă și mai sigură printr-un impuls puternic către IA etică.

Așteaptă o secundă, replică, această persoană este necinstită. Se pare că vor sări pe navă odată ce va avea loc îmbrățișarea Eticii AI. Inima lor nu este în firmă și nici în muncă. Ei folosesc compania pentru a-și avansa propria agendă. Sigur, agenda pare suficient de bună, căutând să pună în minte AI etică, dar acest lucru poate merge prea departe.

Vedeți, argumentul continuă să spună că urmărirea eticii AI ar putea deveni exagerat de zeloasă. Dacă persoana a venit să inițieze IA etică, s-ar putea să nu se uite la o imagine mai amplă a cu ce se confruntă firma în general. Cu excluderea tuturor celorlalte, această persoană ar putea să distragă atenția companiei în mod miopic și să nu fie dispusă să permită adoptarea eticii AI pe o bază motivată și într-un ritm prudent.

Ele ar putea deveni un nemulțumire perturbatoare care doar se ceartă continuu despre locul în care se află firma în ceea ce privește preceptele AI etice. Alți dezvoltatori AI ar putea fi distrași de discuțiile cu o singură melodie. Introducerea eticii AI în amestec este cu siguranță rațională, deși teatralitatea și alte posibile perturbări în cadrul companiei pot împiedica progresul AI etic, mai degrabă decât să-l ajute.

Rundă și rundă mergem.

Acum putem revizui acești factori suplimentari despre sărare pe care i-am oferit anterior:

  • Se plătește. Este de imaginat că persoana ar putea fi plătită inițial de o entitate care dorește să determine o firmă să îmbrățișeze AI Ethics, probabil cu scopul de a face acest lucru în mod inofensiv sau poate să vândă firmei un anumit set de instrumente sau practici AI Ethics. În general, puțin probabil, dar merită menționat.
  • Vizibilitate. Persoana s-ar putea să nu-și aducă în discuție misiunea devoțională Etică AI atunci când trece prin procesul de angajare. În alte cazuri, ei s-ar putea asigura că este în prim-plan, astfel încât firma de angajare să înțeleagă fără nicio ambiguitate în ceea ce privește concentrarea lor devotată. Cu toate acestea, este mai probabil să fie exprimat ca și cum Etica AI este o preocupare secundară și că jobul este preocuparea lor principală, mai degrabă decât invers.
  • Sincronizare. Persoana odată angajată ar putea alege să aștepte pentru a-și începe începerea Eticii AI. Ei ar putea aștepta săptămâni, luni sau chiar ani pentru a se activa. Cu toate acestea, șansele sunt mai probabil să înceapă odată ce s-au aclimatizat cu firmă și și-au stabilit un punct de sprijin personal ca angajat al companiei. Dacă încep imediat, acest lucru ar putea submina încercarea lor de a fi priviți ca un insider și ar putea să-i arunce ca intrus sau străin.
  • Pași făcuți. Uneori, persoana va anunța în mod explicit în cadrul companiei că acum încearcă să atragă atenția asupra Eticii AI, ceea ce s-ar putea întâmpla la scurt timp după ce a fost angajată sau se poate întâmpla un timp după aceea (conform indicației mele de mai sus despre factorul de timp). Pe de altă parte, persoana ar putea alege să servească într-un rol sub acoperire, lucrând în liniște în cadrul companiei și fără a-și acorda o atenție deosebită. Ei ar putea, de asemenea, să furnizeze informații presei și altor persoane din afară despre ce omisiuni sau eșecuri în domeniul eticii AI au loc în cadrul companiei.
  • Posesiune. O persoană care își asumă un efort de sărare ar putea ajunge să fie capabilă să obțină un impuls pentru Etica AI. Ei ar putea rămâne la firmă pe tot parcursul procesului de adoptare a IA etică. Acestea fiind spuse, uneori o astfel de persoană alege să părăsească firma care a fost declanșată și optează să meargă la o altă firmă pentru a începe din nou activitățile care a generat scântei. Argumentele cu privire la aceasta sunt intense. Un punct de vedere este că acest lucru demonstrează în mod clar că persoana nu a avut în suflet locul de muncă la firmă. Punctul de vedere contrastant este că probabil că ei se vor găsi în ape tulburi și posibil de nesuportat, rămânând în firmă, dacă sunt acum etichetați ca voci puternice sau făcători de probleme.
  • Rezultat. O încercare de sărare nu garantează un rezultat anume. S-ar putea ca persoana să crească gradul de conștientizare cu privire la IA etică și efortul să înceapă, așadar, sărare „de succes” a avut loc. Un alt rezultat este că persoana nu poate obține o astfel de tracțiune. Ei fie renunță la urmărire și rămân la firmă, poate așteptând o altă șansă mai târziu, fie părăsesc firma și caută, de obicei, să facă sărarea la o altă companie.
  • Salter profesionist. Unii oameni s-ar putea considera un susținător puternic al sărării prin etica AI și se mândresc că servesc ca săratori, așa cum ar fi. Ei fac sărarea în mod repetat, trecând de la ferm la ferm pe măsură ce o fac. Alții ar putea face acest lucru o singură dată, poate din cauza unei anumite preferințe sau pentru a vedea cum este, apoi aleg să nu repete într-un astfel de rol. Vă puteți imagina cu siguranță tipurile de presiuni personale și stres potențial care pot apărea atunci când sunteți într-o capacitate de sare.

Rămâne de văzut dacă acest tip de sărare orientată spre etica AI va avea loc. Dacă firmele întârzie să promoveze IA etică, acest lucru ar putea face ca eticienii fervenți în IA să își asume eforturile de sărare. S-ar putea să nu realizeze în mod direct că fac sărare. Cu alte cuvinte, cineva merge la compania X și încearcă să se apropie de AI Ethics, poate că o face și își dă seama că ar trebui să facă același lucru în altă parte. Apoi trec la compania Y. Clătiți și repetați.

Din nou, accentul este însă că îmbrățișarea eticii AI este prioritatea lor cea mai mare. Obținerea locului de muncă este secundară sau nici măcar nu deosebit de importantă, în afară de a putea intra și a face eforturile din interior de sărare legate de IA etică.

Voi adăuga, de asemenea, că cei care studiază și analizează aspectele eticii AI au acum o adăugire oarecum nouă la subiectele cercetării AI etice:

  • Ar trebui să fie în general tolerate sau evitate aceste eforturi de sărare a Eticii AI?
  • Ce îi determină pe cei care ar dori să facă sărare în acest context AI?
  • Cum ar trebui să reacționeze companiile la un act perceput de sărare a contextului AI?
  • Vor exista metodologii concepute pentru a încuraja sărarea legată de IA ca aceasta?
  • Etc

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial. Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vitală pentru producerea AI adecvată, inclusiv (poate surprinzător sau ironic) evaluarea modului în care etica AI este adoptată de companii.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. De fapt, ei avertizează că, dacă vom pune în aplicare unele dintre aceste legi AI, vom ucide gâsca de aur limitând progresele AI care oferă avantaje societale imense.

În acest moment al acestei discuții ample, aș paria că sunteți dornic de câteva exemple ilustrative care ar putea prezenta acest subiect. Există un set special și cu siguranță popular de exemple care sunt aproape de inima mea. Vedeți, în calitatea mea de expert în inteligența artificială, inclusiv în ramificațiile etice și juridice, mi se cere frecvent să identific exemple realiste care prezintă dileme de etică a inteligenței artificiale, astfel încât natura oarecum teoretică a subiectului să poată fi înțeleasă mai ușor. Una dintre cele mai evocatoare zone care prezintă în mod viu această dilemă etică a AI este apariția mașinilor cu adevărat autonome bazate pe AI. Acesta va servi ca un caz de utilizare la îndemână sau un exemplu pentru discuții ample pe această temă.

Iată atunci o întrebare demnă de remarcat care merită luată în considerare: Apariția mașinilor autonome bazate pe inteligență artificială luminează ceva despre sărarea legată de inteligența artificială și, dacă da, ce prezintă acest lucru?

Permiteți-mi un moment să despachetez întrebarea.

În primul rând, rețineți că nu există un șofer uman implicat într-o mașină care se conduce singur. Rețineți că adevăratele mașini cu conducere autonomă sunt conduse printr-un sistem de conducere AI. Nu este nevoie de un șofer uman la volan și nici nu există o prevedere ca un om să conducă vehiculul. Pentru acoperirea mea extinsă și continuă a vehiculelor autonome (AV) și în special a mașinilor cu conducere autonomă, consultați linkul aici.

Aș dori să clarific în continuare ce se înțelege atunci când mă refer la adevăratele mașini cu conducere automată.

Înțelegerea nivelurilor autoturismelor

Ca o clarificare, adevăratele mașini cu conducere automată sunt cele în care AI conduce mașina în întregime singură și nu există asistență umană în timpul sarcinii de conducere.

Aceste vehicule fără șofer sunt considerate Nivelul 4 și Nivelul 5 (vezi explicația mea la acest link aici), în timp ce o mașină care necesită ca un șofer uman să împartă efortul de conducere este de obicei considerată la Nivelul 2 sau Nivelul 3. Mașinile care împart sarcina de conducere sunt descrise ca fiind semi-autonome și, de obicei, conțin o varietate de suplimente automate care sunt denumite ADAS (Sisteme avansate de asistență pentru șofer).

Nu există încă o adevărată mașină care se conduce singur la Nivelul 5 și nici măcar nu știm dacă acest lucru va fi posibil și nici cât timp va dura până acolo.

Între timp, eforturile de la Nivelul 4 încearcă treptat să obțină o anumită tracțiune, trecând prin teste foarte înguste și selective pe drumurile publice, deși există controverse cu privire la faptul dacă aceste teste ar trebui permise în sine (toți suntem cobai pe viață sau pe moarte într-un experiment care au loc pe autostrăzile și drumurile noastre secundare, susțin unii, vezi acoperirea mea la acest link aici).

Deoarece autoturismele semi-autonome necesită un șofer uman, adoptarea acestor tipuri de mașini nu va fi semnificativ diferită de a conduce vehicule convenționale, deci nu există în sine prea multe lucruri care să le acopere în acest sens (totuși, după cum veți vedea într-o clipă, punctele următoare prezentate sunt în general aplicabile).

Pentru mașinile semi-autonome, este important ca publicul să fie anunțat în legătură cu un aspect perturbator care a apărut în ultima vreme, și anume că, în ciuda șoferilor umani care continuă să posteze videoclipuri despre care adorm la volanul unui autoturism de nivel 2 sau nivel 3 , cu toții trebuie să evităm să ne înșelăm crezând că șoferul își poate îndepărta atenția de la sarcina de conducere în timp ce conduce o mașină semi-autonomă.

Sunteți partea responsabilă pentru acțiunile de conducere ale vehiculului, indiferent de cât de multe automatizări ar putea fi aruncate într-un nivel 2 sau 3.

Mașini cu conducere autonomă și etica AI Salting

Pentru vehiculele cu autovehicul adevărat de nivel 4 și nivel 5, nu va exista un șofer uman implicat în sarcina de conducere.

Toți ocupanții vor fi pasageri.

AI efectuează conducerea.

Un aspect care trebuie discutat imediat presupune faptul că AI implicată în sistemele de conducere AI de astăzi nu este sensibilă. Cu alte cuvinte, AI este cu totul un colectiv de programare și algoritmi pe computer și, cu siguranță, nu este capabil să raționeze în același mod în care oamenii pot.

De ce se pune accentul pe faptul că AI nu este sensibilă?

Pentru că vreau să subliniez că, atunci când discut despre rolul sistemului de conducere AI, nu atribuiesc calități umane AI. Vă rugăm să fiți conștienți de faptul că există o tendință periculoasă și continuă de a antropomorfiza AI în zilele noastre. În esență, oamenii atribuie simțire umană AI-ului de astăzi, în ciuda faptului incontestabil și incontestabil că nu există încă o astfel de AI.

Cu această clarificare, puteți imagina că sistemul de conducere AI nu va „cumva” nativ cumva despre fațetele conducerii. Conducerea și tot ceea ce presupune va trebui să fie programate ca parte a hardware-ului și software-ului mașinii cu conducere automată.

Să ne scufundăm în nenumăratele aspecte care vin să se joace pe acest subiect.

În primul rând, este important să realizăm că nu toate mașinile autonome cu AI sunt la fel. Fiecare producător auto și firmă de tehnologie cu auto-conducere adoptă abordarea sa în conceperea mașinilor care se conduc singur. Ca atare, este dificil să faci declarații cuprinzătoare despre ceea ce vor face sau nu vor face sistemele de conducere AI.

Mai mult, ori de câte ori se afirmă că un sistem de conducere AI nu face ceva anume, acest lucru poate fi, mai târziu, depășit de dezvoltatorii care, de fapt, programează computerul pentru a face chiar acest lucru. Pas cu pas, sistemele de conducere AI sunt îmbunătățite și extinse treptat. O limitare existentă astăzi ar putea să nu mai existe într-o viitoare iterație sau versiune a sistemului.

Sper că aceasta oferă o litanie suficientă de avertismente pentru a sta la baza a ceea ce sunt pe cale să relatez.

Să schițăm un scenariu care prezintă o situație de sare legată de IA.

Un producător auto care se străduiește să dezvolte mașini autonome complet autonome se grăbește înainte cu probele pe drumurile publice. Firma este supusă unei presiuni mari pentru a face acest lucru. Aceștia sunt urmăriți de piață și, dacă nu par să fie la vârful dezvoltării mașinilor cu auto-conducere, prețul acțiunilor lor suferă în consecință. În plus, au investit deja miliarde de dolari, iar investitorii devin nerăbdători pentru ziua în care compania va putea anunța că mașinile lor autonome sunt gata pentru utilizarea comercială de zi cu zi.

Un dezvoltator AI urmărește îndeaproape de la distanță eforturile producătorului auto. În știri se găsesc din ce în ce mai mult cazuri raportate în care sistemul de conducere AI se confundă sau face greșeli. Diverse cazuri includ coliziuni cu alte mașini, coliziuni cu motocicliști și alte incidente grave.

În general, firma încearcă să păstreze această tăcere. Dezvoltatorul AI a vorbit în privat cu câțiva dintre inginerii companiei și a aflat că preceptele de etică AI sunt oferite doar pe gura, în cel mai bun caz. Pentru acoperirea mea cu privire la astfel de chestiuni de sustragere a IA etică de către companii, vezi linkul aici.

Ce va face acest dezvoltator AI?

Se simt obligați să facă ceva.

Să facem un pic de efort de bifurcare și să luăm în considerare două căi pe care fiecare ar putea fi întreprinsă de acest dezvoltator AI.

O cale este că dezvoltatorul AI se adresează mass-media pentru a încerca să scoată la lumină aparenta lipsă de atenție adecvată a preceptelor de etică AI din partea producătorului auto. Poate că acest specialist AI îngrijorat optează să scrie bloguri sau să creeze vloguri pentru a evidenția aceste preocupări. O altă posibilitate este ca un membru existent al echipei AI să devină un fel de avertizor, un subiect pe care l-am abordat la linkul aici.

Aceasta este cu siguranță o abordare considerată externă de către acest dezvoltator AI.

O altă cale este că dezvoltatorul AI crede în instinctul lor că ar putea fi capabili să facă mai multe din interiorul companiei. Setul de abilități al dezvoltatorului AI este bine adaptat în fațetele AI care implică mașini cu conducere autonomă și pot aplica cu ușurință pentru locurile de muncă de inginer AI postate la companie. Dezvoltatorul AI decide să facă acest lucru. În plus, impulsul se concentrează exclusiv pe ca producătorul de automobile să fie mai serios cu privire la IA etică. Lucrarea în sine nu contează în special pentru acest dezvoltator AI, cu excepția faptului că acum vor putea lucra convingător din interior.

S-ar putea ca dezvoltatorul AI să primească slujba, dar apoi să descopere că există o rezistență internă uriașă, iar obiectivul etic AI este inutil. Persoana părăsește compania și decide să vizeze un alt producător auto care ar putea fi mai dispus să înțeleagă ceea ce își propune să realizeze dezvoltatorul AI. Încă o dată, ei fac acest lucru pentru a atinge în mod întemeiat considerentele de etică AI și nu pentru pilonul în care constă munca AI.

Concluzie

Noțiunea de a se referi la aceste eforturi legate de IA ca o formă de sărare este obligată să-i determine pe unii să aibă arsuri la stomac în legătură cu utilizarea excesivă a unei terminologii sau vocabular deja stabilite. Sărarea este destul de înrădăcinată în activitățile de sindicalizare legate de muncă și afaceri. Încercările de a supraîncărca cuvântul cu aceste alte tipuri de activități aparent asemănătoare, deși nu au nicio legătură cu sindicalizarea, sunt potențial înșelătoare și confuze.

Să presupunem că venim cu o frazeologie diferită.

Piperat?

Ei bine, asta nu pare să invoce exact același sentiment ca săratul. Ar fi o luptă dificilă să încercăm să obținem acest lucru stipulat și inclus în lexicul nostru de zi cu zi.

Indiferent ce am venit cu, și orice denumire sau slogan pare potrivită, știm un lucru sigur. Încercarea de a determina firmele să îmbrățișeze etica AI este încă o luptă dificilă. Trebuie să încercăm. Încercarea trebuie făcută în modurile corecte.

Se pare că, indiferent de pe ce parte a gardului cazi, trebuie să luăm acea avertizare cu un grăunte de sare potrivit.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicsts-that-instigate-ethical-ai-practices/