Implantarea raționamentului juridic în inteligența artificială ar putea atinge în mod inteligent alinierea valorii umane, spune că etica și legea inteligenței artificiale

În coloana de astăzi, voi îmbina o multitudine de subiecte aparent disparate legate de IA într-o singură țesătură frumos.

Eşti gata?

Imaginați-vă că utilizați o aplicație bazată pe inteligență artificială care vă ajută în timp ce efectuați un fel de sarcină semnificativă. Poate că chestiunea este una financiară sau ar putea fi legată de sănătate. Esența este că depinzi de AI pentru a face ceea ce trebuie și a performa într-o manieră sigură și sigură.

Să presupunem că AI se îndreaptă spre un teritoriu lipsit de etică.

S-ar putea să nu realizezi că AI face acest lucru.

De exemplu, IA s-ar putea baza pe factori discriminatori potențial ascunși, cum ar fi rasa sau sexul, deși este posibil să nu aveți niciun mijloc viabil de a discerne utilizarea neplăcută. Iată, singur, obțineți capătul scurt al stick-ului printr-o IA care fie a fost concepută de la început într-un mod problematic, fie a reușit să pătrundă într-o periclitare etică la limită (voi spune mai multe despre asta într-o clipă).

Ce poți face sau ce se poate face cu AI care optează să meargă pe o cale lipsită de etică?

Pe lângă faptul că încerc să construiesc în prealabil IA, astfel încât să nu facă acest tip de acțiune insidioasă, am detaliat anterior și că există un interes în creștere pentru încorporarea unui Verificarea eticii AI componentă în mlaștina în plină dezvoltare a Vestului Sălbatic, sistemele de inteligență artificială de orice fel sunt aruncate pe piață. Ideea este că, pentru a încerca să împiedicăm o aplicație cu IA să depășească dimensiunile etice, am putea folosi AI suplimentară pentru a face o verificare și echilibrare. Această IA adăugată ar putea fi în afara aplicației AI vizate sau ar putea fi o componentă încorporată sau implantată direct în AI pe care dorim să o verificăm.

După cum am spus mai devreme, vezi linkul aici: „O tendință care a apărut recent constă în încercarea de a construi balustrade etice în AI care se vor prinde pe măsură ce restul unui sistem AI începe să depășească limitele etice prestabilite. Într-un fel, scopul este de a folosi IA în sine pentru a se împiedica să meargă prost din punct de vedere etic. Ați putea spune că ne propunem ca AI să se vindece singură” (Lance Eliot, „Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI from Acting Up”, Forbes, 28 martie 2022).

S-ar putea să găsiți, de asemenea, un interes relevant despre cartea mea Roboți guardian AI, denumite uneori îngeri păzitori, care acoperă bazele tehnice ale acestor verificatoare duble încorporate AI-in-AI de ultimă generație, vezi linkul aici.

Concluzia este că slănina dumneavoastră ar putea fi salvată, din fericire, prin utilizarea unui element de verificare a eticii încorporat AI, care a fost conceput și implantat într-o aplicație AI pe care o utilizați. Dar va fi acesta suficient de gardian pentru a te asigura cu adevărat că AI nu te încordează complet și nu se aventurează chiar și în teren dăunător Hasher?

Vedeți, aplicația AI ar putea funcționa în mod aparent ilegal acte.

Un lucru este să avem AI care intră într-o zonă gri a ceea ce considerăm a fi comportamente etice sau neetice. Un comportament la fel de deconcertant și o îngrijorare care se poate agrava implică o inteligență artificială care pur și simplu sare rechinul și coboară în întunericul defectuos al actelor absolut ilegale.

AI ilegală este rău. Permiterea AI ilegală să rămână nesupravegheată este rău. Unii juriști sunt în mod deschis îngrijorați de faptul că apariția și omniprezenta IA vor submina treptat și terifiant aspectul nostru de statul de drept, vezi analiza mea la linkul aici.

Așteaptă o secundă, s-ar putea să spui.

S-ar putea să fii tentat să crezi că dezvoltatorii AI ar face acest lucru nu programează-le AI pentru a merge împotriva legii. De neimaginat. Doar răufăcătorii răi ar face acest lucru (care, apropo, rețineți că există cei care concep și folosesc intenționat AI în scopuri malefice, o zonă în creștere de interes pentru criminali și pentru alții care doresc să folosească AI pentru activități nefaste).

Ne pare rău, dar este o iluzie să presupunem că toți dezvoltatorii AI non-rău se vor asigura strict că AI-ul lor respectă pe deplin legea. S-ar putea ca AI să se autoajusteze și să rătăcească în activități ilegale. Desigur, există, de asemenea, potențialul ca dezvoltatorii AI fie să fi dorit ca AI să acționeze ilegal, fie că nu știau ce constituie acte ilegale față de acte legale atunci când creau AI (da, acest lucru este foarte posibil, și anume că un echipa de AI cu cap în jos din toate tehnologiile poate să nu cunoască manierele legale ale AI-ului lor, ceea ce nu este scuzabil și totuși se întâmplă cu o frecvență alarmantă).

Ce se poate face în acest sens?

Încă o dată, pe lângă încercarea de a se asigura că AI-ul de pe poartă este ferm și legal, o abordare suplimentară pentru a câștiga abur implică încorporarea sau implantarea unei componente AI care efectuează o dublă verificare legală pentru restul aplicației AI. Stând în liniște și adesea neanunțată, această IA adăugată observă restul AI pentru a încerca să discearnă dacă IA va deveni necinstită sau cel puțin va depăși limitele restricțiilor impuse de lege sau de reglementare.

Avem acum două tipuri de verificări AI care sunt potențial încorporate într-o aplicație AI:

  • Verificarea eticii AI: În timp real, această componentă sau suplimentul AI evaluează restul AI pentru comportamentele etice și neetice pe care le prezintă AI.
  • Verificare juridică AI: În timp real, această componentă sau suplimentul AI evaluează restul AI pentru asigurarea rămânerii în cheia de boltă legală și pentru capturarea activităților ilegale emergente de către AI.

Pentru a clarifica, acestea sunt concepții relativ noi și, ca atare, IA pe care o utilizați astăzi ar putea fi în oricare dintre aceste condiții prezente:

  • AI care nu are nicio verificare inclusă
  • AI care are un dublu-verificator AI Ethics inclus, dar nu există alte dublu-verificatoare
  • AI care are un dublu-verificator AI Legal inclus, dar nu există alte dublu-verificatoare
  • AI care are atât un dublu verificator AI Ethics, cât și un dublu verificator AI Legal
  • Altele

Există câteva aspecte extrem de complicate în a avea atât dublu-verificatorul AI Ethics, cât și AI Legal, care lucrează cot la cot într-o aplicație AI ca frate și soră rude. Acesta este un tip de dualism care poate fi mai greu de coordonat decât ați putea presupune (cred că știm cu toții că frații și surorile pot avea cele mai strânse legături, deși ei pot lupta, din când în când, ca nebunii și se pot opune puternic. vederi).

Am discutat pe larg despre acest tip de grele dualism: „În AI for Social Good are loc un dualism neglijat, care implică lipsa de a cuprinde atât rolul agenției morale artificiale, cât și raționamentul juridic artificial în sistemele AI avansate. Eforturile cercetătorilor AI și dezvoltatorilor AI au avut tendința de a se concentra asupra modului în care să creeze și să încorporeze agenți morali artificiali pentru a ghida luarea deciziilor morale atunci când un sistem AI funcționează în domeniu, dar nu s-au concentrat și pe utilizarea capacităților de raționament juridic artificial. , care este la fel de necesar pentru rezultate morale și juridice solide” (Lance Eliot, „The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good”, Conferința anuală CRCS de la Universitatea Harvard 2020, Centrul Harvard pentru cercetare și societate de calcul)

Dacă doriți să aflați de ce ar putea exista tensiune între un dublu verificator AI Ethics și un dublu verificator AI Legal, s-ar putea să găsiți acest citat remarcabil despre demnitatea conceptuală atrăgătoare: „Legea poate permite un anumit act, chiar dacă acel act este imoral; iar legea poate interzice un act, chiar dacă acel act este permis din punct de vedere moral sau chiar cerut din punct de vedere moral” (Shelly Kagan, Limitele moralei, 1998).

Să ne schimbăm ușor atenția și să vedem cum aceste verificatoare duble se încadrează într-un alt subiect AI foarte analizat, și anume AI responsabilă sau o analiză concertată a alinierii valorilor umane și IA.

Noțiunea generală este că vrem AI care să respecte valorile umane adecvate și dezirabile. Unii se referă la asta ca AI responsabilă. Alții discută la fel AI responsabil, AI de încredere, și Alinierea AI, toate acestea atingând același principiu fundamental. Pentru discuția mea despre aceste probleme importante, vezi linkul aici și linkul aici, Doar pentru a numi câteva.

Cum putem face ca AI să se alinieze la valorile umane?

După cum am sugerat mai devreme, sperăm că dezvoltatorii de AI vor fi la curent cu dezvoltarea AI care atinge respectarea AI responsabilă. Din păcate, s-ar putea să nu, conform motivelor elucidate mai devreme. În plus, ar putea încerca să facă acest lucru și, totuși, IA ajunge să se autoajusteze dincolo de tărâmul principal al comportamentelor etice sau, eventual, în apele ilegale.

În regulă, trebuie să luăm în considerare apoi dublu-checkerele noastre la îndemână ca un mijloc de a susține aceste riscuri și expuneri. Utilizarea unui dublu verificator de etică AI bine conceput poate ajuta material la alinierea AI la valorile umane. În mod similar, utilizarea unui dublu verificator legal AI bine conceput poate ajuta în mod substanțial la alinierea AI la valorile umane.

Astfel, un mijloc crucial și încă necunoscut pentru a încerca să ajungeți la AI responsabilă, AI de încredere, IA responsabilă, aliniere AI etc., ar implica utilizarea dublelor verificatoare AI, cum ar fi un dublu verificator AI Ethics și un Verificare dublă legală AI care ar funcționa neobosit ca o verificare dublă a AI în care sunt încorporate.

În această discuție, aș dori să intru mai multe detalii despre natura și structurile verificatoarelor AI Legal care ar putea fi încorporate în AI. Pentru a face acest lucru, ar putea fi util să vă împărtășim câteva informații suplimentare despre subiectul general al AI și drept.

Pentru o examinare simplă a modului în care AI și legea se amestecă unele cu altele, vedeți discuția mea la linkul aici. În privirea mea cu discernământ asupra AI și drept cuplarea, ofer această concepție simplă a două modalități majore de a interrelați AI și legea:

  • (1) Legea-aplicată-AI: Formularea, adoptarea și punerea în aplicare a legilor aplicate reglementării sau guvernării inteligenței artificiale în societatea noastră
  • (2) AI aplicată în drept: Tehnologia de inteligență artificială concepută și aplicată în legislație, inclusiv raționamentul juridic bazat pe inteligență artificială (AILR) infuzată în aplicațiile de înaltă tehnologie LegalTech pentru a îndeplini în mod autonom sau semi-autonom sarcini de avocatură

Primul punct de vedere enumerat constă în luarea în considerare a modului în care legile existente și noi vor guverna AI. A doua perspectivă enumerată are de-a face cu aplicarea AI la lege.

Această ultimă categorie implică de obicei utilizarea raționamentului juridic bazat pe inteligență artificială (AILR) în diferite instrumente online utilizate de avocați. De exemplu, AI ar putea face parte dintr-un pachet de management al ciclului de viață al contractului (CLM) care îi ajută pe avocați prin identificarea limbajului contractual care va fi util pentru redactarea de noi contracte sau ar putea detecta contracte care au un limbaj neplăcut din punct de vedere legal care permite accidentări sau lacune legale. (pentru privirea mea asupra așa-numitelor „mirosuri de lege” care pot fi sesizate de AI, vezi linkul aici).

În mod inevitabil, vom avea AI aplicată la legea care devine disponibilă pentru utilizare de către publicul larg și care nu necesită ca un avocat să fie la curent. În acest moment, ca urmare a diferitelor restricții, inclusiv UPL (practică neautorizată a dreptului), punerea la dispoziție a aplicațiilor de consiliere juridică bazate pe inteligență artificială este o chestiune spinoasă și controversată, vezi discuția mea la linkul aici.

Am adus în discuție această introducere despre AI și Drept pentru a sublinia că o altă utilizare instrumentală a AI aplicată legii ar fi crearea de verificări AI Legal.

Da, același tip de pricepere tehnologică implicată în aplicarea AI la lege poate servi ca o dublă sarcină prin utilizarea AI pentru a servi ca un dublu verificator legal AI încorporat sau implantat. Verificarea dublu AI Legal este o componentă care trebuie să fie versată în fațete juridice. Când restul aplicației AI efectuează diverse acțiuni, verificatorul AI Legal evaluează dacă aplicația AI face acest lucru în mod legal și în limitele legale.

O componentă de verificare dublu AI Legal nu trebuie neapărat să acopere întreaga gamă a tot ceea ce este de știut despre lege. În funcție de natura aplicației AI în ceea ce privește scopul și acțiunile AI în general, verificarea AI Legal poate fi mult mai restrânsă în ceea ce privește expertiza juridică pe care o conține.

Am identificat un cadru util pentru a prezenta modul în care IA în domeniul juridic se întinde printr-o serie de capacități autonome, cunoscute sub numele de Niveluri de autonomie (LoA). Pentru o privire de ansamblu, vezi my Forbes postare în coloană din 21 noiembrie 2022, „Cazul convingător și cuprinzător fără prostii pentru motivul pentru care avocații trebuie să știe despre AI și lege” la linkul aici, iar pentru o descriere tehnică detaliată, consultați articolul meu de cercetare aprofundată în MIT Computational Law Journal din 7 decembrie 2021, vezi linkul aici.

Cadrul elucidează cinci niveluri de inteligență artificială, așa cum sunt utilizate în demersurile juridice:

  • Nivelul 0: Fără automatizare pentru activitatea juridică bazată pe inteligență artificială
  • Nivelul 1: Automatizare simplă a asistenței pentru activități juridice bazate pe inteligență artificială
  • Nivelul 2: Automatizare avansată a asistenței pentru activități juridice bazate pe inteligență artificială
  • Nivelul 3: Automatizare semi-autonomă pentru activități juridice bazate pe inteligență artificială
  • Nivelul 4: domeniu autonom pentru activitatea juridică bazată pe inteligență artificială
  • Nivelul 5: complet autonom pentru activitatea juridică bazată pe inteligență artificială

Le voi descrie pe scurt aici.

Nivelul 0 este considerat nivelul fără automatizare. Raționamentul juridic și sarcinile juridice sunt efectuate prin metode manuale și au loc în principal prin abordări pe hârtie.

Nivelul 1 constă în automatizarea simplă a asistenței pentru raționamentul juridic AI. Exemplele din această categorie ar include utilizarea de zi cu zi a procesării de text bazate pe computer, utilizarea de foi de calcul computerizate de zi cu zi, accesul la documente juridice online care sunt stocate și preluate electronic și așa mai departe.

Nivelul 2 constă în automatizarea avansată a asistenței pentru raționamentul juridic AI. Exemplele din această categorie ar include utilizarea procesării rudimentare a limbajului natural (NLP) în stilul interogării, elemente simpliste de învățare automată (ML), instrumente de analiză statistică pentru predicțiile cazurilor juridice etc.

Nivelul 3 constă în automatizare semi-autonomă pentru raționamentul juridic AI. Exemplele din această categorie ar include utilizarea sistemelor avansate bazate pe cunoștințe (KBS) pentru raționamentul juridic, utilizarea Machine Learning și Deep Learning (ML/DL) pentru raționament juridic, NLP avansat și așa mai departe.

Nivelul 4 constă în sisteme autonome bazate pe computer pentru raționamentul juridic AI. Acest nivel reutiliza noțiunea conceptuală de Domenii de proiectare operațională (ODD), așa cum este utilizată pentru mașinile cu conducere autonomă, dar așa cum este aplicată domeniului legal. Domeniile juridice pot fi clasificate pe domenii funcționale, cum ar fi dreptul familiei, dreptul imobiliar, dreptul falimentului, dreptul mediului, dreptul fiscal etc.

Nivelul 5 constă din sisteme complet autonome bazate pe computer pentru raționamentul juridic AI. Într-un sens, Nivelul 5 este supersetul Nivelului 4 în ceea ce privește includerea tuturor domeniilor legale posibile. Vă rugăm să realizați că aceasta este o comandă destul de grea.

Puteți concepe aceste niveluri de autonomie la egalitate cu utilizările similare atunci când discutați despre mașini cu conducere autonomă și vehicule autonome (de asemenea, pe baza standardului oficial SAE, vedeți acoperirea mea la linkul aici). Încă nu avem mașini autonome SAE Nivel 5. Ne apropiem de mașini autonome SAE Nivel 4. Majoritatea mașinilor convenționale sunt la nivelul 2 SAE, în timp ce unele dintre mașinile mai noi trec de la nivelul 3 SAE.

În domeniul juridic, nu avem încă nivelul 5 AILR. Atingem niște Nivelul 4, deși în ODD-uri extrem de înguste. Nivelul 3 începe să vadă lumina zilei, în timp ce pilonul principal al AILR astăzi se află în principal la nivelul 2.

Un articol recent de cercetare despre inteligența artificială aplicată legii a postulat o tipificare cunoscută ca Legea informează Codul. Cercetătorul afirmă acest lucru: „Unul dintre scopurile principale ale Legea informează Codul agenda este să învețe AI să urmeze spiritul legii” (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology and Intellectual Property, Volumul 20, care urmează). Există câteva considerații esențiale pe care Legea informează Codul Mantra apare și vă voi ghida prin câteva dintre acele precepte cheie.

Înainte de a aborda subiectul, aș dori mai întâi să pun o bază esențială despre AI și în special despre Etica AI și Legea AI, făcând acest lucru pentru a mă asigura că discuția va fi sensibilă din punct de vedere contextual.

Creșterea gradului de conștientizare a IA etică și, de asemenea, a legii AI

Era recentă a AI a fost inițial privită ca fiind AI pentru bine, ceea ce înseamnă că am putea folosi AI pentru îmbunătățirea umanității. Pe tocuri de AI pentru bine ne-am dat seama că suntem și noi cufundați AI pentru rău. Aceasta include IA care este concepută sau auto-modificată pentru a fi discriminatorie și face alegeri computaționale care imbunătățesc părtiniri nejustificate. Uneori, IA este construită în acest fel, în timp ce în alte cazuri se îndreaptă spre acel teritoriu neplăcut.

Vreau să mă asigur din plin că suntem pe aceeași pagină despre natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă. Nu avem asta. Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei singularitate, vezi acoperirea mea la linkul aici).

Tipul de IA pe care mă concentrez constă în IA nesimțitoare pe care o avem astăzi. Dacă am vrea să speculăm în mod sălbatic despre IA sensibilă, această discuție ar putea merge într-o direcție radical diferită. Se presupune că o IA sensibilă ar fi de calitate umană. Ar trebui să luați în considerare că IA sensibilă este echivalentul cognitiv al unui om. Mai mult, deoarece unii speculează că am putea avea IA super-inteligentă, este de imaginat că o astfel de IA ar putea ajunge să fie mai inteligentă decât oamenii (pentru explorarea mea a AI super-inteligentă ca posibilitate, vezi acoperirea aici).

Aș sugera cu tărie să menținem lucrurile cu picioarele pe pământ și să luăm în considerare IA computațională neconștientă de astăzi.

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning (ML) și Deep Learning (DL), care valorifică potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

Fiți foarte atenți la antropomorfizarea IA de astăzi.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Toate acestea au implicații semnificative de etică AI și oferă o fereastră utilă către lecțiile învățate (chiar înainte ca toate lecțiile să se întâmple) atunci când vine vorba de încercarea de a legifera AI.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. Ei avertizează că, dacă adoptăm unele dintre aceste legi privind IA, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense.

În coloanele anterioare, am acoperit diferitele eforturi naționale și internaționale de a elabora și a adopta legi care reglementează IA, vezi linkul aici, de exemplu. Am tratat, de asemenea, diferitele principii și linii directoare ale eticii IA pe care diferitele națiuni le-au identificat și adoptat, inclusiv, de exemplu, efortul Națiunilor Unite, cum ar fi setul UNESCO de etică IA pe care aproape 200 de țări l-au adoptat, vezi linkul aici.

Iată o listă de temelie utilă a criteriilor sau caracteristicilor AI etice privind sistemele AI pe care le-am explorat anterior îndeaproape:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Se presupune că acele principii de etică AI sunt utilizate cu seriozitate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI.

Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite ale IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a subliniat anterior aici, este nevoie de un sat pentru a concepe și a dezvolta IA și pentru care întregul sat trebuie să fie familiarizat și să respecte preceptele de etică AI.

De asemenea, am examinat recent Declarația drepturilor AI care este titlul oficial al documentului oficial al guvernului SUA intitulat „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, care a fost rezultatul unui efort de un an al Oficiului pentru Politică în Știință și Tehnologie (OSTP). ). OSTP este o entitate federală care servește să consilieze președintele american și biroul executiv al SUA cu privire la diferite aspecte tehnologice, științifice și de inginerie de importanță națională. În acest sens, puteți spune că această Declarație a drepturilor AI este un document aprobat și susținut de Casa Albă a SUA existentă.

În Bill of Rights AI, există cinci categorii cheie:

  • Sisteme sigure și eficiente
  • Protecții de discriminare algoritmică
  • confidențialitatea datelor
  • Observație și explicație
  • Alternative umane, considerație și rezervă

Am analizat cu atenție acele precepte, vezi linkul aici.

Acum că am pus o bază utilă pe aceste subiecte legate de Etica AI și Legea AI, suntem gata să trecem la subiectul captivant al verificărilor juridice AI și domeniul Legea informează Codul.

AI Legal Double-Checkers încorporate în AI pentru alinierea valorii umane

Ma refer uneori la AI Legal Double-Checkers printr-un acronim al lui AI-LDC. Acest lucru este puțin șocant din punct de vedere vizual pentru cei care nu sunt familiarizați cu acronimul. Ca atare, nu voi folosi acest acronim special în această discuție, dar am vrut să vă menționez ca informație.

Pentru a despacheta unele dintre complexitățile verificărilor duble ale AI Legal, să abordăm aceste puncte majore:

  • Utilizarea verificatoarelor AI Legal ca mecanism de aliniere a valorilor umane AI
  • AI mai extinsă va necesita, în mod corespunzător, verificări juridice AI mai robuste
  • Verificatorii juridici AI promulgă legea și, în special, nu fac legi (probabil)
  • Echilibru delicat între AI întruchiparea legală a legii ca reguli și standarde
  • Solicitarea unei dovezi a budincii atunci când vine vorba de respectarea legii de AI

Din cauza constrângerilor de spațiu, voi acoperi doar acele cinci puncte deocamdată, deși vă rugăm să fiți atent pentru o acoperire suplimentară în coloana mea, care acoperă considerații suplimentare și la fel de remarcabile cu privire la aceste chestiuni care evoluează rapid și se mișcă înainte.

Chiar acum, cuplați centura de siguranță și pregătiți-vă pentru o călătorie revigorantă.

  • Utilizarea verificatoarelor AI Legal ca mecanism de aliniere a valorilor umane AI

Există numeroase modalități de a încerca să obțineți o aliniere armonioasă între AI și valorile umane.

După cum s-a menționat mai devreme, putem produce și promulga precepte de etică AI și putem încerca să îi convingem pe dezvoltatorii AI și pe cei care lucrează și operează AI să respecte acele cheie de boltă. Din păcate, acest lucru singur nu va face smecheria. Aveți niște inventatori care, inevitabil, nu vor înțelege mesajul. Aveți niște invenționați care se vor etala cu inteligența artificială etică și vor încerca să ocolească principiile prescrise. Si asa mai departe.

Folosirea abordărilor de „lege blândă” care implică Etica AI trebuie aproape inexorabil să fie asociată cu căi de „lege dur”, cum ar fi adoptarea de legi și reglementări care vor trimite un semnal puternic tuturor celor care creează sau utilizează IA. Brațul lung al legii ar putea veni să te prindă dacă nu folosești în mod judicios AI. Zgomotul ușilor închisorii ar putea atrage o atenție puternică.

O mare problemă, totuși, este că uneori ușa hambarului a lăsat deja caii să iasă din jur. O IA care este activată va produce potențial tot felul de acte ilegale și va continua să facă acest lucru până nu doar că va fi prins, ci și când unele măsuri de aplicare vor interveni în sfârșit pentru a împiedica fluxul de acțiuni ilegale. Toate acestea pot dura timp. Între timp, oamenii sunt răniți într-un mod sau altul.

În această incursiune vine dublu-verificatorul AI Legal.

Reședința într-o aplicație AI, verificatorul AI Legal este capabil să detecteze imediat când AI pare să încalce legea. Verificarea dublu AI Legal ar putea opri AI-ul pe drum. Sau componenta ar putea alerta oamenii cu privire la activitățile ilegale identificate, făcând acest lucru în timp util, ceea ce ar putea determina supraveghetorii să ia măsuri corective urgente. Există, de asemenea, jurnalizarea considerată formalizată pe care componenta ar putea-o crea, oferind o aparență tangibilă a unei piste de audit în scopul codificării acțiunilor adverse ale AI.

Se spune că legile noastre sunt o formă de conglomerare multi-agenți, astfel încât legile sunt inevitabil un amestec de ceea ce societatea a căutat să pună un echilibru între opiniile conflictuale probabile despre comportamentele societale adecvate și improprii. Prin urmare, un dublu verificator AI Legal bazat pe legile noastre întruchipează acest amestec.

În special, aceasta este mai mult decât doar programarea unei liste de reguli legale definitive. Legile tind să fie mai maleabile și să se străduiască spre standarde generale, mai degrabă decât să specifice cele mai mici reguli microscopice. Complexitățile sunt din abundență.

Revenind la lucrarea de cercetare menționată mai devreme, iată cum pot fi privite și aceste considerații în ceea ce privește urmărirea alinării AI: „Legea, filosofia aplicată a alinării multi-agenți, îndeplinește în mod unic aceste criterii. Alinierea este o problemă pentru că nu putem ex ante specificați reguli care direcționează pe deplin și dovedit un comportament bun al AI. În mod similar, părțile la un contract juridic nu pot prevedea fiecare eventualitate a relației lor, iar legiuitorii nu pot prevedea circumstanțele specifice în care legile lor vor fi aplicate. De aceea, o mare parte din lege este o constelație de standarde” (ibid).

Încorporarea legii într-un control AI Legal este mult mai dificilă decât ați putea presupune la început.

Pe măsură ce AI avansează, va trebui să folosim astfel de progrese în consecință. Se pare că ceea ce este bun pentru gâscă este bun și pentru gander. Aceia dintre noi care fac progrese în IA, așa cum este aplicată legii, împinge limitele AI și, fără îndoială, forjează noi progrese care pot contribui în cele din urmă la progresul AI.

  • AI mai extinsă va necesita, în mod corespunzător, verificări juridice AI mai robuste

Un gambit de pisică și șoarece se confruntă cu acest subiect.

Sunt șanse ca, pe măsură ce AI avansează și mai mult, orice componentă de verificare dublu AI Legal va găsi probleme din ce în ce mai greu de rezolvat. De exemplu, o aplicație de inteligență artificială care este analizată ar putea avea modalități super-smecheroase nou concepute de a ascunde acțiunile ilegale pe care le întreprinde inteligența artificială. Chiar dacă AI nu ia o cale subțire, complexitatea generală a AI ar putea fi singura un obstacol descurajant pentru a încerca să evalueze dublu control AI Legal.

Iată cum acest lucru devine deosebit de important.

Să presupunem că un dezvoltator AI sau o firmă care utilizează AI proclamă că există o dublu verificare AI Legal care a fost încorporată în aplicația bazată pe AI. Voila, se pare că acum s-au spălat pe mâini de orice alte preocupări. Verificatorul AI Legal se va ocupa de tot.

Nu este așa.

Dubla verificarea AI Legal ar putea fi insuficientă pentru natura aplicației AI implicate. Există, de asemenea, posibilitatea ca verificatorul AI Legal să devină depășit, poate nefiind actualizat cu cele mai recente legi referitoare la aplicația AI. Se pot prevedea o mulțime de motive pentru care simpla prezență a unui dublu verificator AI Legal nu va fi un glonț de argint.

Luați în considerare aceste perspective ale cercetării citate anterior: „Pe măsură ce progresul de ultimă generație pentru AI, putem stabili bare iterativ mai mari ale capacităților demonstrate de înțelegere juridică. Dacă un dezvoltator susține că sistemul său are capacități avansate în ceea ce privește sarcinile, ar trebui să demonstreze o înțelegere juridică avansată și abilități juridice și de raționament ale IA, care practic nu au nici un plafon de dificultate atunci când se ia în considerare moaștena legilor și reglementărilor din timp, precedent și jurisdicție. ” (ibid).

  • Verificatorii juridici AI promulgă legea și, în special, nu fac legi (probabil)

Sunt sigur că unii dintre voi sunteți îngroziți de ideea de a avea aceste verificări AI Legal.

O îngrijorare des exprimată este că se pare că vom permite AI să decidă legile noastre pentru noi. Doamne, s-ar putea să vă gândiți, o parte de automatizare va depăși omenirea. Acei nenorociți verificatori juridici AI încorporați vor deveni regii impliciti ai legilor noastre. Orice ar face ei va fi ceea ce pare a fi legea.

Oamenii vor fi conduși de AI.

Și aceste verificări AI Legal sunt panta alunecoasă care ne duce acolo.

Un contraargument este că o astfel de discuție este chestia teoriilor conspirației. Postulezi în mod sălbatic și te afli. Realitatea este că acești verificatori AI Legal nu sunt sensibili, nu vor prelua planeta, iar exagerarea cu privire la riscul lor existențial este pur și simplu absurdă și extrem de exagerată.

Una peste alta, rămânând într-o postură calmă și raționată, trebuie să fim conștienți de faptul că verificările duble ale AI Legal servesc pentru a reflecta în mod corespunzător legea și nu prin proiectare și nici din întâmplare să meargă mai departe pentru a ajunge cumva la implicit în domeniul venerat de a face. lege. Lăsând deoparte extrapolările sensibilității, putem cu siguranță să fim de acord că există o îngrijorare reală și presantă că dubla verificare a AI Legal ar putea ajunge să denatureze adevărata natură a unei anumite legi.

La rândul său, ați putea susține că, prin urmare, această anumită lege „denaturată” este în esență reluată, deoarece nu mai semnifică în mod adecvat ceea ce a fost intenționat de legea actuală. Am încredere că, sincer, puteți vedea cum aceasta este o considerație subtilă, dar grăitoare. În orice moment, verificatorul AI Legal ar putea, în mod virtual, făcând sau vom spune „a halucina” noi legi prin simplul mod în care componenta AI interpretează legea așa cum a fost declarată inițial sau încorporată în AI (pentru acoperirea mea de AI așa-numita halucinații, A se vedea linkul aici).

Trebuie să aveți grijă în acest sens.

Pe această temă, studiul de cercetare menționat mai sus oferă această gândire paralelă în ceea ce privește încercarea de a evita trecerea acelei linii sacre: „Nu ne propunem ca AI să aibă legitimitatea de a face legi, de a stabili precedent legal sau de a aplica legea. De fapt, acest lucru ar submina abordarea noastră (și ar trebui să investim eforturi semnificative în prevenirea acestui lucru). Mai degrabă, obiectivul cel mai ambițios al Codului de Informare a Legii este de a codifica și de a încorpora prin calcul generalizarea conceptelor și standardelor legale existente în performanța AI validată” (ibid).

  • Echilibru delicat între AI întruchiparea legală a legii ca reguli și standarde

Legile sunt dezordonate.

Pentru aproape orice lege din cărți, există probabil o multitudine de interpretări despre ceea ce prevede legea în practică. În limbajul domeniului AI, ne referim la legi ca fiind ambigue din punct de vedere semantic. Acesta este ceea ce face ca dezvoltarea IA, așa cum este aplicată legii, este o provocare atât de interesantă și, în același timp, deranjantă. Spre deosebire de scăderea exactă a numărului pe care ați putea să o vedeți pentru, de exemplu, aplicațiile AI orientate spre financiar, dorința de a întruchipa legile noastre în AI presupune să faceți față unui tsunami de ambiguități semantice.

În cartea fundației mele despre fundamentele raționamentului juridic AI (AILR), discut despre modul în care încercările anterioare de a codifica legile într-un set de reguli limitate nu ne-au dus atât de departe cât ne-am dori să mergem în domeniul juridic (vezi linkul aici). AILR de astăzi trebuie să cuprindă o integrare între utilizarea regulilor și ceea ce s-ar putea numi standarde globale pe care le reprezintă legea.

Acest echilibru important poate fi exprimat în acest mod: „În practică, majoritatea prevederilor legale ajung undeva pe un spectru între regulă pură și standard pur, iar teoria juridică poate ajuta la estimarea combinației corecte de „regularitate” și „standarditate” atunci când se specifică obiectivele sistemelor AI” (ibid).

  • Solicitarea unei dovezi a budincii atunci când vine vorba de respectarea legii de AI

A dori ceva este diferit de a avea ceva.

Această înțelepciune apare atunci când ne spunem că, deși am putea dori să avem duble verificatoare AI Legal, trebuie să ne asigurăm din plin că funcționează și funcționează corect. Rețineți că acest lucru prezintă un alt obstacol dur și obositor. Am acoperit anterior cele mai recente progrese și provocări în verificarea și validarea AI, vezi linkul aici.

După cum se menționează în lucrarea de cercetare: „Pentru a aborda decalajul, înainte ca modelele AI să fie implementate în capacități din ce în ce mai agentice, de exemplu, vehicule complet autonome pe drumurile principale, partea care desfășoară implementarea ar trebui să demonstreze înțelegerea de către sistem a obiectivelor umane, politicilor și standardelor legale. O procedură de validare ar putea ilustra „înțelegerea” de către IA a „sensului” conceptelor juridice” (ibid).

Concluzie

Vă îndemn să luați în considerare să vă alăturați mie în această nobilă căutare de a construi și a pune în funcțiune AI Legal dublu-verificatori. Avem nevoie de mai multă atenție și resurse dedicate acestei urmăriri virtuoase.

Acest lucru oferă, de asemenea, o datorie dublă, așa cum am menționat mai devreme, față de realizarea raționamentului juridic AI (AILR) care poate fi utilizat pentru a ajuta avocații și potențial utilizat direct de publicul larg. Într-adevăr, unii susțin cu vehemență că singurele mijloace viabile de a ajunge la un sentiment mai deplin de acces la justiție (A2J) va fi prin crearea unei inteligențe artificiale care întruchipează capacități legale și care poate fi accesată de toți.

Un punct final rapid pentru moment.

Discuția de până acum a evidențiat faptul că dubla verificarea AI Legal ar fi încorporată sau implantată în AI. Acesta este într-adevăr obiectivul principal al celor care cercetează și întreprind acest tărâm în curs de dezvoltare.

Iată o întrebare pe care merită să ne gândim.

Pune-ți șapca de gândire.

De ce să nu folosiți verificările AI Legal în toate programele?

Esența este că, mai degrabă decât să folosim exclusiv verificatoarele AI Legal în AI, poate că ar trebui să ne lărgim punctul de vedere. Toate tipurile de software se pot rătăci din punct de vedere legal. Desigur, AI a atras cea mai mare parte din atenție datorită modalităților în care AI este de obicei utilizată, cum ar fi luarea unor decizii dureroase care au impact asupra oamenilor în viața lor de zi cu zi. Ați putea, totuși, să susțineți cu ușurință că există o mulțime de sisteme non-AI care fac la fel.

În esență, ar trebui să nu permitem niciunui software să aibă o călătorie gratuită pentru a evita sau a evita legea.

Amintiți-vă și mai devreme că am menționat cele două categorii de combinare a AI și a legii. Aici ne-am concentrat asupra utilizării AI așa cum este aplicată legii. Pe cealaltă parte a monedei se află aplicarea legii la AI. Să presupunem că adoptăm legi care impun utilizarea dublelor verificatoare AI Legal.

Acest lucru ar putea fi limitat la început la sistemele AI, în special la cele evaluate ca fiind deosebit de cu risc ridicat. Treptat, aceeași cerință de verificare AI Legal ar putea fi extinsă și la software-ul non-AI. Din nou, fără curse gratuite.

În timp ce te gândești la această considerație de mai sus, voi condimenta lucrurile ca un teaser final. Dacă vom încerca să cerem dublu-verificatori AI Legal, s-ar putea la fel de bine să facem același lucru și cu dublu-verificatorii AI Ethics. Utilizarea unui dublu verificator AI Legal este doar jumătate din poveste și nu putem neglija sau uita nici preocupările legate de Etica AI.

Voi încheia acest discurs plin de viață cu unul dintre citatele mele preferate. După cuvintele înțelepte ale lui Earl Warren, faimosul jurist care a servit ca judecător șef al Statelor Unite: „În viața civilizată, legea plutește într-o mare de etică”.

Cel mai bine ar fi să folosim cu stăruință acele verificatoare juridice AI în devenire și în plină experiență și verificatoare duble ale AI Ethics, în utilizare avidă, dacă vrem să ne menținem capul deasupra unor potențial mări grele care se profilează din cauza AI acrișă și a sistemelor non-AI care ne pun în pericol siguranța. .

Ar putea fi vesta de salvare a umanității.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- si-ai-lege/