Etica AI și inocularea psihologică indusă de IA pentru a ajuta oamenii cu dezinformarea

Ce vom face în legătură cu excesul masiv de dezinformare și dezinformare?

Totul se dovedește din ce în ce mai rău, cu fiecare zi care trece.

Poate că inteligența artificială (IA) ne poate veni în ajutor. Da, așa este, s-ar putea să putem valorifica utilizările benefice ale inteligenței artificiale pentru a face față tsunami-ului nostru necruțător de dezinformare și dezinformare. S-ar putea să fim înțelepți să încercăm să facem asta. Fiecare cale de soluție potențială ar părea demnă de urmărit.

Deoparte, aș dori să recunosc imediat și să remarc că AI, fără îndoială, va de asemenea fi și tu parte a problemei. Nu există nicio îndoială că oamenii pot folosi cu ușurință AI pentru a genera dezinformare și dezinformare. În plus, AI poate fi folosită în mod insidios pentru a face ca dezinformarea și dezinformarea să pară uimitor de valide și să păcălească oamenii făcându-le să creadă că informațiile prezentate sunt atrăgător de exacte și de fapte. O față hotărât tristă a ceea ce AI aduce la masă. Vom reveni la această problemă negativă spre sfârșitul acestei discuții.

Deocamdată, să ne punem fețele zâmbitoare și să explorăm modul în care AI este benefică pentru a aduce dezinformarea și dezinformarea în genunchi. Un curent subteran important va fi faptul că toate acestea se integrează în elemente vitale ale eticii AI. Acoperirea mea în coloana despre Etica AI și IA etică este continuă și extinsă, inclusiv linkul aici și linkul aici, Doar pentru a numi câteva.

Luați în considerare aceste moduri fundamentale prin care AI poate fi un aliat deosebit de util în războiul împotriva dezinformarii și dezinformării:

  • Opriți-vă la Get-Go: Inteligența artificială poate fi folosită pentru a detecta și a încerca să elimine dezinformarea și dezinformarea înainte ca aceasta să se desprindă
  • Filtrați înainte de a vedea: AI poate fi folosit pentru a filtra dezinformarea și dezinformarea, astfel încât să nu aveți nevoie să vă faceți griji că le vedeți
  • Pregătește-te să fii imun: Inteligența artificială poate fi folosită pentru a vă consolida pregătirea și capacitatea de a vă lupta cu dezinformarea și dezinformarea (cunoscute oarecum formal ca oferind un fel de inoculare psihologică)
  • Altele

Primul punct listat implică încercarea de a opri dezinformarea și dezinformarea cât mai curând posibil, înainte ca conținutul să intre în lume.

Aceasta este o abordare extrem de problematică. Unii ar argumenta cu voce tare că aceasta ar putea fi o încercare a Big Brother de a suprima libertatea de exprimare. Cât de departe ar putea merge acest AI? Ar putea împiedica oamenii să-și exprime liber opiniile? Acest lucru ciudat ar putea deveni o pantă alunecoasă a AI, devenind în cele din urmă cel mai rău coșmar al rezultatelor malefice care a început inocent cu cele mai bune intenții.

Sunt sigur că înțelegi poza.

Al doilea punct este puțin mai moderat și sugerează că am putea folosi AI pentru a filtra conținutul pentru noi.

Este posibil să aveți un bot de filtru AI care va scana toate fluxurile de date primite din diverse știri și alte surse. AI este adaptat pentru a capta orice dezinformare sau dezinformare care se potrivește criteriilor dumneavoastră personale. Astfel, într-un astfel de scenariu, nu este o situație de cenzură Big Brother. Tu controlezi AI și modul în care aceasta filtrează adevărata ta căsuță de e-mail de informații în numele tău.

Sună destul de bine.

Există totuși câteva preocupări demne de remarcat.

De exemplu, suntem deja foarte polarizați în opiniile noastre și această utilizare a AI ar putea face acea polarizare mai profundă și mai întunecată. Imaginați-vă că, cu această inteligență artificială care funcționează non-stop 24×7, nu trebuie niciodată să vedeți o bucată de informații pe care le-ați clasificat ca fiind potențial dezinformare și dezinformare. Perspectiva ta polarizată este acum aproape garantată să rămână intactă. Toată ziua și ori de câte ori căutați să aruncați o privire la informațiile care vă așteaptă atenția, acestea sunt întotdeauna complet preselectate și nu există nicio șansă de a arunca o privire la așa-numita dezinformare și dezinformare.

Eu spun că dezinformarea și dezinformarea pot fi așa-zisul pentru că există o cantitate enormă de controverse cu privire la ceea ce constituie de fapt dezinformare și dezinformare. Unii experti insistă că există o bază absolută pentru a stabili ce este dezinformarea și ce este dezinformarea. Există bine și rău. Totul poate fi calculat fără a greși că ceva este fie dezinformare, fie dezinformare.

Nu toată lumea vede lucrurile ca fiind atât de clare.

Proverbialul contrast de dihotomie interzis sau oprit se spune că este o stare de spirit înșelătoare. Dezinformarea unei persoane ar putea să nu fie considerată dezinformare pentru o altă persoană. La fel și despre dezinformarea. Afirmația este că dezinformarea și dezinformarea variază în termeni de natură și amploare. Încercarea de a clasifica definitiv toate informațiile într-o grămadă sau în alta este mult mai dificilă decât sugerează fluturarea mâinii.

Esența este că al doilea punct despre utilizarea AI ca mecanism de filtrare are compromisurile sale. Nu există nicio îndoială că AI va fi folosită din ce în ce mai mult în acest scop. În același timp, trebuie să fim atenți la provocările pe care o astfel de IA le va aduce în prim-plan. AI ca filtru pentru dezinformare și dezinformare nu este un glonț de argint sau un slam dunk.

Asta ne duce la al treilea punct, și anume posibilitatea de a folosi AI pentru a face oamenii mai buni în a face față dezinformării și dezinformării.

Mă îndoiesc că probabil ați auzit multe despre această a treia cale de utilizare a AI în acest context. Tocmai începe să apară. Sunteți acum la marginea de vârf a ceva care probabil va crește și va fi pus treptat în uz. Vă rugăm să știți, totuși, că, pe măsură ce această popularitate se extinde, controversele asupra faptului că este o abordare potrivită vor deveni, de asemenea, foarte vizibile.

O parte a problemei este că AI este oarecum folosită pentru ceea ce unii s-ar referi într-un mod derogatoriu jucând jocuri mintale cu oamenii.

Asta pare de rău augur.

Acest lucru ne aduce și pe tărâmul eticii AI.

Toate acestea se referă, de asemenea, la preocupările emergente cu privire la AI de astăzi și în special la utilizarea Machine Learning și Deep Learning ca formă de tehnologie și modul în care este utilizată. Vedeți, există utilizări ale ML/DL care tind să implice ca IA să fie antropomorfizată de către publicul larg, crezând sau alegând să presupună că ML/DL este fie AI sensibilă, fie aproape de (nu este). În plus, ML/DL poate conține aspecte ale potrivirii modelelor de calcul care sunt nedorite sau total necorespunzătoare sau ilegale din punct de vedere etic sau juridic.

Ar putea fi util să clarific mai întâi la ce mă refer când mă refer la AI în general și, de asemenea, să ofer o scurtă prezentare generală a învățării automate și a învățării profunde. Există o mare confuzie cu privire la ceea ce înseamnă inteligența artificială. De asemenea, aș dori să vă prezint și preceptele Eticii AI, care vor fi în mod special parte integrantă din restul acestui discurs.

Prezentarea recordului despre AI

Să ne asigurăm că suntem pe aceeași pagină cu privire la natura IA de astăzi.

Nu există astăzi nicio IA care să fie sensibilă.

Nu avem asta.

Nu știm dacă IA sensibilă va fi posibilă. Nimeni nu poate prezice în mod adecvat dacă vom atinge IA simțitoare și nici dacă IA simțitoare va apărea într-un fel, în mod miraculos, spontan într-o formă de supernovă cognitivă computațională (denumită de obicei Singularitatea, vezi acoperirea mea la linkul aici).

Realizați că IA de astăzi nu este capabilă să „gândească” în nici un fel la egalitate cu gândirea umană. Când interacționați cu Alexa sau Siri, capacitățile conversaționale ar putea părea asemănătoare capacităților umane, dar realitatea este că este computațională și nu are cunoașterea umană. Cea mai recentă eră a AI a folosit pe scară largă Machine Learning și Deep Learning, care folosesc potrivirea modelelor de calcul. Acest lucru a condus la sisteme AI care au aspectul unor tendințe asemănătoare omului. Între timp, astăzi nu există nicio IA care să aibă o aparență de bun simț și nici să aibă minunea cognitivă a gândirii umane robuste.

O parte a problemei este tendința noastră de a antropomorfiza computerele și în special AI. Atunci când un sistem computerizat sau IA pare să acționeze în moduri pe care le asociem cu comportamentul uman, există un impuls aproape copleșitor de a atribui calități umane sistemului. Este o capcană mentală obișnuită care poate prinde chiar și pe cel mai intransigent sceptic cu privire la șansele de a ajunge la simțire.

Într-o anumită măsură, acesta este motivul pentru care Etica AI și IA etică sunt un subiect atât de crucial.

Preceptele eticii AI ne fac să rămânem vigilenți. Tehnologii AI pot deveni uneori preocupați de tehnologie, în special de optimizarea tehnologiei înalte. Ei nu iau în considerare neapărat ramificațiile societale mai mari. A avea o mentalitate de etică AI și a face acest lucru în mod integral pentru dezvoltarea și implementarea AI este vitală pentru producerea AI adecvată, inclusiv pentru evaluarea modului în care etica AI este adoptată de companii.

Pe lângă utilizarea preceptelor de etică AI în general, există o întrebare corespunzătoare dacă ar trebui să avem legi care să guverneze diferitele utilizări ale AI. Sunt puse în aplicare noi legi la nivel federal, statal și local care privesc gama și natura modului în care ar trebui concepută IA. Efortul de a elabora și a adopta astfel de legi este unul gradual. Etica AI servește cel puțin ca o soluție intermediară și aproape sigur, într-o anumită măsură, va fi încorporată direct în acele noi legi.

Fiți conștienți de faptul că unii susțin ferm că nu avem nevoie de legi noi care să acopere IA și că legile noastre existente sunt suficiente. Ei avertizează că, dacă adoptăm unele dintre aceste legi privind IA, vom ucide gâsca de aur prin restrângerea progreselor în IA care oferă avantaje societale imense. Vezi, de exemplu, acoperirea mea la linkul aici.

În coloanele anterioare, am acoperit diferitele eforturi naționale și internaționale de a elabora și a adopta legi care reglementează IA, vezi linkul aici, de exemplu. Am tratat, de asemenea, diferitele principii și linii directoare ale eticii IA pe care diferitele națiuni le-au identificat și adoptat, inclusiv, de exemplu, efortul Națiunilor Unite, cum ar fi setul UNESCO de etică IA pe care aproape 200 de țări l-au adoptat, vezi linkul aici.

Iată o listă de temelie utilă a criteriilor sau caracteristicilor AI etice privind sistemele AI pe care le-am explorat anterior îndeaproape:

  • Transparență
  • Justiție și corectitudine
  • Non-Malefință
  • Responsabilitate
  • Privacy
  • Beneficiență
  • Libertate & Autonomie
  • Încredere
  • Durabilitate
  • Demnitate
  • Solidaritate

Se presupune că acele principii de etică AI sunt utilizate cu seriozitate de dezvoltatorii AI, împreună cu cei care gestionează eforturile de dezvoltare AI și chiar și cei care în cele din urmă activează și realizează întreținerea sistemelor AI. Toate părțile interesate de-a lungul întregului ciclu de viață al dezvoltării și utilizării AI sunt considerate în scopul respectării normelor stabilite de IA etică. Acesta este un punct important, deoarece presupunerea obișnuită este că „doar codificatorii” sau cei care programează IA sunt supuși aderării la noțiunile de etică AI. După cum s-a subliniat anterior aici, este nevoie de un sat pentru a concepe și a pune în aplicare IA, și pentru care întregul sat trebuie să cunoască și să respecte preceptele de etică AI.

Să ținem lucrurile la pământ și să ne concentrăm pe IA computațională neconștientă de astăzi.

ML/DL este o formă de potrivire a modelelor de calcul. Abordarea obișnuită este aceea de a aduna date despre o sarcină de luare a deciziilor. Introduceți datele în modelele de computer ML/DL. Acele modele caută să găsească modele matematice. După găsirea unor astfel de modele, dacă se găsește, sistemul AI va folosi acele modele atunci când întâlnește date noi. La prezentarea de date noi, modelele bazate pe datele „vechi” sau istorice sunt aplicate pentru a lua o decizie curentă.

Cred că poți ghici încotro se îndreaptă asta. Dacă oamenii care au luat deciziile modelate au încorporat părtiniri nefavorabile, șansele sunt ca datele să reflecte acest lucru în moduri subtile, dar semnificative. Învățarea automată sau potrivirea modelelor computaționale de învățare profundă va încerca pur și simplu să imite datele în mod corespunzător. Nu există nicio aparență de bun simț sau alte aspecte sensibile ale modelării create de AI în sine.

În plus, dezvoltatorii AI ar putea să nu realizeze nici ce se întâmplă. Matematica arcană din ML/DL ar putea face dificilă descoperirea părtinirilor acum ascunse. Te-ai aștepta pe bună dreptate și te-ai aștepta ca dezvoltatorii AI să testeze părtinirile potențial îngropate, deși acest lucru este mai complicat decât ar părea. Există o șansă solidă că, chiar și cu teste relativ extinse, vor exista părtiniri încă încorporate în modelele de potrivire a modelelor ML/DL.

Ați putea folosi oarecum faimosul sau infamul adagiu de gunoi în garbage-out. Chestia este că aceasta seamănă mai mult cu prejudecățile care se infuzează insidios pe măsură ce părtinirile sunt scufundate în AI. Algoritmul de luare a deciziilor (ADM) al AI devine axiomatic încărcat cu inechități.

Nu e bine.

Cred că acum am pregătit scena pentru a discuta suficient despre rolul IA ca mijloc de a provoca inocularea psihologică legată de tratarea dezinformarii și dezinformării.

Intrarea în mințile oamenilor

Să începem cu elementele de bază sau elementele fundamentale care stau la baza dezinformării și dezinformării.

În general, dezinformarea se referă la informații false sau înșelătoare.

Dezinformarea este aproximativ aceeași, deși constă în elementul adăugat de scop. În mod normal, interpretăm informațiile ca fiind dezinformare atunci când acestea sunt informații destinate a dezinforma.

Aș putea să vă spun că în prezent este ora 10 noaptea, ceea ce să spunem că este fals pentru că ora este într-adevăr miezul nopții. Dacă ți-aș fi spus ora 10 ca o bănuială și nu aș fi încercat să înșel, de obicei am spune că te-am informat greșit. Am transmis dezinformare. Poate am fost leneș sau poate am crezut cu adevărat că era ora 10. Pe de altă parte, dacă aș fi menționat ora 10 pentru că voiam în mod intenționat să vă înșel, crezând că ora era ora 10 și că știam că ora este de fapt miezul nopții, s-ar putea spune că aceasta este o formă de dezinformare. .

Un aspect notabil al informației în general este că, de obicei, suntem capabili să ne răspândim în jurul informațiilor și astfel informațiile pot deveni oarecum răspândite. Informația poate curge cu adevărat ca apa, în sens larg.

Vă spun că este ora 10 noaptea. Acum aveți această informație specială. S-ar putea să strigi cu voce tare unui grup de oameni din apropiere că este ora 10 noaptea. Acum și ei au aceleași informații. Poate că unii dintre acești oameni își pun telefonul mobil și îi sună pe alții să le spună că este ora 10. Per total, informațiile pot fi răspândite sau partajate și, uneori, se pot face atât de repede, în timp ce în alte cazuri se pot face lent.

Într-un fel, ai putea susține că informațiile pot deveni virale.

Există un cuvânt sau o terminologie inventată pe care este posibil să nu l-ați văzut sau folosit în mod special care vă ajută să descrieți acest fenomen de informare care devine virală, cuvântul este infodemie. Acest cuvânt este un amestec atât de informații, cât și de epidemie. În general, o infodemie este asociată cu circumstanțe care implică răspândirea dezinformarii sau a dezinformarii. Ideea este că informațiile false sau înșelătoare pot deveni virale, în mod nedorit, similar cu răspândirea nedorită a bolilor sau a bolilor.

În exemplul despre ora 10 noaptea, acest fapt aparent era o informație care a fost răspândită grupului de oameni din apropiere. Ei, la rândul lor, au răspândit faptul și altora. Dacă ora 10 a fost falsă, atunci acest exemplu special de dezinformare sau dezinformare a fost răspândit la mulți alții. S-ar putea să nu știe că informația a fost dezinformare sau posibil dezinformare.

Am încredere că toate aceste definiții și elemente fundamentale par sensibile și sunteți la bord până acum.

Super, hai să continuăm.

Te-am condus oarecum pe furiș în ceva care ocupă multă fascinație și, de asemenea, neliniște. Esența este că există, probabil, paralele rezonabile între ceea ce bolile fac viral și ceea ce dezinformarea sau dezinformarea face viral.

Nu toată lumea este de acord cu aceste pretinse paralele. Cu toate acestea, sunt interesante și demne de luat în considerare.

Permiteți-mi să elaborez.

Vedeți, putem încerca să folosim analogia la îndemână a referirii la bolile și bolile transmise de oameni care se răspândesc, făcând acest lucru pentru a compara o posibilitate similară cu răspândirea dezinformării și a dezinformarii. Pentru a încerca să oprim răspândirea bolilor, putem urmări să detectăm timpuriu și să încercăm să stăpânim o sursă bolnavă în curs de apariție a potențialei răspândiri a bolii. O altă abordare pentru a face față unei boli care se răspândește ar fi să vă protejați împotriva apariției acesteia prin utilizarea prudentă a purtării unei măști sau a echipamentului de protecție. O a treia abordare ar putea consta în vaccinarea pentru a încerca să vă construiți imunitatea legată de boală.

Acum am încheiat un cerc în sensul că aceleași abordări de a face față bolilor pot fi asemănate în mod explicit cu gestionarea dezinformării și a dezinformarii. Am menționat mai devreme că sunt în desfășurare eforturi similare pentru a folosi inteligența artificială în scopul încercării de a face față dezinformării și dezinformării, în special (după cum am menționat mai devreme):

  • Opriți-vă la Get-Go: Inteligența artificială poate fi folosită pentru a detecta și a încerca să elimine dezinformarea și dezinformarea înainte ca aceasta să se desprindă
  • Filtrați înainte de a vedea: AI poate fi folosit pentru a filtra dezinformarea și dezinformarea, astfel încât să nu aveți nevoie să vă faceți griji că le vedeți
  • Pregătește-te să fii imun: Inteligența artificială poate fi folosită pentru a vă consolida pregătirea și capacitatea de a vă lupta cu dezinformarea și dezinformarea (cunoscute oarecum formal ca oferind un fel de inoculare psihologică)
  • Altele

Cel de-al treilea aspect va fi de cel mai mare interes aici.

Uite care-i propunerea.

Știm că bolile lovesc de obicei corpului uman. Cu analogia modului în care apar dezinformarea și dezinformarea, am putea sugera că informațiile greșite lovesc la mintea umană. Da, probabil că puteți intra în contact cu dezinformarea sau dezinformarea care vă curge în minte. Dezinformarea sau dezinformarea poate corupe sau otrăvește modul dumneavoastră de a gândi.

Un organism uman poate fi vaccinat pentru a încerca să se pregătească pentru a intra în contact cu boli. Apare o mare întrebare dacă putem face același lucru pentru mintea umană. Este posibil să încerci să inoculezi mintea astfel încât, atunci când dezinformarea sau dezinformarea îți vine în minte, ești pregătit pentru asta și ai fost inoculat în consecință?

Un domeniu de studiu cunoscut ca inoculare psihologică presupune că mintea poate fi într-adevăr inoculată în sensul că este pregătită să gestioneze dezinformarea sau dezinformarea.

Luați în considerare această descriere într-un studiu recent de cercetare privind inocularea psihologică și ceea ce este uneori etichetat ca făcând prebunking:

  • „Dezafirmarea dezinformarii este, de asemenea, problematică, deoarece corectarea dezinformării nu îi anulează întotdeauna în întregime efectele, un fenomen cunoscut sub numele de efectul de influență continuă. În consecință, spre deosebire de dezmințirea, prebunkingul a câștigat proeminență ca mijloc de a construi în mod preventiv reziliența împotriva expunerii anticipate la dezinformare. Această abordare se bazează de obicei pe teoria inoculării. Teoria inoculării urmează o analogie a imunizării medicale și presupune că este posibil să se construiască rezistență psihologică împotriva încercărilor de persuasiune nedorite, la fel cum inoculările medicale construiesc rezistență fiziologică împotriva agenților patogeni.Avansuri de știință, 24 august 2022, „Psychological Inoculation Improves Resilience Against Misinformation On Social Media” de co-autori Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje și Stephan Lewandowsky).

Revenind la exemplul meu despre ora 10 noaptea, să presupunem că v-am spus anterior că uneori ora pretinsă nu este ora reală. De acum încolo aveți o formă de inoculare pentru a fi atenți la vremurile revendicate. Această inoculare v-a pregătit pentru a intra în contact cu momente revendicate care sunt dezinformare sau dezinformare.

Dacă v-aș fi prevenit cu câțiva ani în urmă că vremurile pretinse nu sunt timpuri reale, există șansa să nu vă gândiți la acel avertisment de demult. Astfel, inocularea anterioară a dispărut (să spunem noi). Inocularea mea pentru tine ar putea avea nevoie să fie stimulată.

Există, de asemenea, șansa ca inocularea să nu fie suficient de specifică pentru a o putea folosi atunci când ai nevoie. Dacă v-aș fi avertizat cu ani în urmă cu privire la perioadele revendicate față de timpurile reale, ar putea fi prea larg. Este posibil ca inocularea să nu funcționeze în cazul în care vi se spune despre ora 10. În acest sens, poate că inocularea mea ar fi trebuit să fie că ar trebui să fii precaut atunci când este folosită ora 10. Desigur, inoculările în cazul bolilor sunt oarecum aceleași, uneori fiind foarte specifice afecțiunilor cunoscute în timp ce în alte cazuri fiind un spectru larg.

Un studiu de cercetare des citat realizat în 1961 privind inocularea psihologică de către William McGuire de la Universitatea Columbia este, în general, considerat acum un clasic în acest domeniu de studiu. S-ar putea să găsiți de interes aceste puncte cheie pe care le-a spus în acel moment:

  • „O astfel de imunizare generalizată ar putea deriva din oricare dintre cele două mecanisme. Pre-expunerea ar putea șoca persoana să-și dea seama că „truismele” pe care le-a acceptat întotdeauna sunt într-adevăr vulnerabile, provocându-l astfel să dezvolte o apărare a credinței sale, cu rezultatul că este mai rezistent la contraargumentele puternice atunci când apar. În mod alternativ, respingerea implicată în pre-expunere ar putea face ca toate contraargumentele prezentate ulterior împotriva credinței să pară mai puțin impresionante” (William McGuire, „Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Psihologie socială, 1961).

Considerați că această analogie a inoculării și imunizării este o comparație utilă și potrivită cu domeniul dezinformării și dezinformării?

Unii fac, alții nu.

În scopul acestei discuții, vă rugăm să acceptați că premisa este rezonabilă și adecvată.

Cum să încercăm să inoculăm sau să imunizăm mințile oamenilor?

Am putea face oamenii să citească cărți care le-ar putea lumina mintea. Am putea să le spunem despre asta sau să le punem să vizioneze videoclipuri sau să asculte casete audio. etc.

Și am putea folosi AI pentru a face același lucru.

Un sistem AI ar putea fi conceput pentru a fi inoculatorul tău. Ori de câte ori începeți să intrați online, cum ar fi să vă uitați la Internet, o aplicație bazată pe inteligență artificială vă poate pregăti pentru călătoria dvs. online. AI s-ar putea să vă alimenteze o cantitate mică de dezinformare care este etichetată ca atare, permițându-vă să realizați că sunteți pe cale să vedeți ceva care este fals în mod intenționat.

După expunerea la această dezinformare alimentată de AI, mintea ta este acum pregătită să facă față dezinformării sau dezinformării pe care le-ai putea întâlni în sălbăticie pe Internet. Mintea ta a fost pregătită. Voila, vezi un blog pe Internet care oferă un fapt afirmat că creaturi extraterestre de pe Marte sunt deja aici pe pământ și se ascund la vedere, dar această aparentă dezinformare sau dezinformare este ușor respinsă de mintea ta din cauza inoculării anterioare (ei bine, apoi din nou, poate că este adevărat și chiar sunt aici!).

Oricum, sper că puteți discerne acum cum AI ar putea ajuta la inocularea sau imunizarea oamenilor cu privire la dezinformare sau dezinformare.

Sunt concepute diverse aplicații AI care vor funcționa ca inoculatori de dezinformare sau dezinformare. AI ar putea încerca să ofere o inoculare care este largă și oferă o aparență generală de imunizare. AI ar putea fi conceput și pentru forme mai specifice de inoculare. În plus, AI poate funcționa pe o bază personalizată, care este adaptată nevoilor sau intereselor dumneavoastră particulare. AI avansată în acest spațiu va încerca, de asemenea, să vă determine nivelul de toleranță, rata de absorbție mentală, capacitatea de reținere și alți factori atunci când compuneți și prezentați așa-numitele injecții de imunizare, așa cum ar fi.

Pare destul de la îndemână.

AI ca jucător de jocuri mintale periculoase

AI folosit în acest mod ar părea la prima vedere destul de util (hei, am menționat asta cu doar o secundă în urmă).

Există o mulțime de potențiale dezavantaje și probleme care sunt îngrijorătoare și poate înfricoșătoare.

În coloanele mele, discut adesea despre capacitățile cu dublă utilizare ale AI, vezi de exemplu linkul aici. Inteligența artificială poate fi o contribuție vitală pentru omenire. Din păcate, AI este, de asemenea, grevată de o mulțime de pericole și capcane nefericite.

Pentru cazul AI ca inculcator, să luăm în considerare aceste aspecte demonstrative legate de Etica AI:

  • Reacții adverse ale oamenilor
  • Reacții neresponsive ale oamenilor
  • AI greșit direcționare
  • AI sub-direcționare
  • Încălcarea cibernetică a IA
  • Altele

Vom explora pe scurt aceste preocupări.

Reacții adverse ale oamenilor

Să presupunem că un om care primește acest tip de inoculare pe bază de IA are o reacție adversă sau produce un efect advers.

Persoana ar putea interpreta greșit imunizarea și poate deveni brusc nereceptivă la orice informație pe care o primește. Ei blochează toate informațiile. Inteligența artificială i-a declanșat cumva să arunce copilul cu apa din baie (o vorbă veche, poate că merită să se retragă). În loc să încerce doar să facă față dezinformării și dezinformării, persoana a reacționat decidând că toate informațiile sunt întotdeauna false.

Nu cred că vrem ca oamenii să treacă atât de mult.

Există o multitudine de reacții adverse pe care AI le-ar putea stimula. Acest lucru se datorează parțial modului în care AI a încercat să efectueze inocularea, dar, de asemenea, trebuie să punem o parte a problemei la picioarele omului care a primit inocularea. S-ar putea să fi reacționat în moduri sălbatice sau bizare, că alții care au primit aceeași inoculare cu AI nu au făcut acest lucru.

Din nou, puteți compara acest lucru cu analogia inoculărilor pentru boli.

Pe scurt, va fi important ca atunci când astfel de eforturi de IA sunt utilizate, ele să fie făcute în moduri responsabile, care să caute să minimizeze efectele adverse. De asemenea, ar trebui să existe un aspect ulterioar al IA pentru a încerca să se stabilească dacă a avut loc o reacție adversă. Dacă există o reacție adversă detectată, IA ar trebui concepută pentru a încerca să ajute persoana în răspunsul advers și să caute să depășească sau să atenueze răspunsul.

Reacții neresponsive ale oamenilor

O altă posibilitate este ca inocularea alimentată cu AI să nu aibă impact asupra persoanei care o primește.

O persoană primește o inoculare bazată pe inteligență artificială legată de dezinformare sau dezinformare. În timp ce majoritatea oamenilor „obțin” și devin imunizați, cu siguranță vor fi oameni care nu vor reacționa deloc. Nu învață nimic din inoculare. Ei nu răspund la încercarea AI de a-i imuniza pentru toate sau anumite tipuri de dezinformare sau dezinformare.

Încă o dată, acest lucru este comparabil cu inoculările pentru boli.

AI ar trebui conceput pentru a face față unei astfel de circumstanțe.

Găsirea AI greșită

Imaginați-vă că un AI speră să imunizeze oamenii cu privire la un anumit subiect despre care vom spune că este subiectul X, dar se dovedește că subiectul Y este în schimb acoperit. AI-ul țintește greșit.

Aceasta este o problemă dublă. În primul rând, subiectul X nu a fost apoi acoperit ca scop presupus și sperat al inoculatorului AI. În al doilea rând, subiectul Y este tratat, dar s-ar putea să nu ne-am fi dorit ca oamenii să fie imunizați pe acest subiect.

Hopa.

Întrebările abundă. S-ar fi putut împiedica acest lucru să se întâmple? Dacă se întâmplă, putem anula subiectul imunizării Y? Putem încerca să acoperim subiectul X inoculare, sau persoana va fi mai puțin receptivă sau non-receptivă din cauza direcționării greșite de către AI inițial?

Apar o mulțime de preocupări problematice.

Sub-direcționarea AI

Un AI oferă o inoculare pe tema Z. Persoanele care primesc inocularea par să aibă o reacție minimă sau aproape neglijabilă. Inocularea a fost insuficientă pentru a se prinde.

Ați putea fi tentat să susțineți rapid că acest lucru este ușor de rezolvat. Tot ce trebuie să faceți este să repetați inocularea. Poate ca da poate ca nu.

Inocularea cu inteligență artificială ar putea avea o valoare atât de limitată încât, indiferent dacă oamenii o experimentează de o sută de ori, rezultatul este încă un rezultat marginal. S-ar putea să fie nevoie să intensificați inocularea în loc să o repetați pur și simplu.

Între timp, imaginați-vă că se face o încercare de a crește inocularea alimentată cu IA, dar acest lucru iese peste bord. Versiunea amplificată provoacă hiper-reacții. Da, am venit din rău în mai rău.

Încălcarea cibernetică a IA

Imaginați-vă că AI este folosită pe scară largă pentru a ajuta oamenii să fie inoculați împotriva dezinformarii și dezinformării.

O încredere generală stăpânește de oameni. Ei știu și se așteaptă că AI le va prezenta fragmente care le vor deschide ochii asupra a ceea ce este cunoscut sub numele de dezinformare și dezinformare.

Totul este bine și bine, se pare.

Un răufăcător este cumva capabil să facă o breșă cibernetică a AI. Ei forțează pe furiș în AI o dezinformare dorită despre care vor ca oamenii să creadă că nu este dezinformare. AI este aranjat astfel încât dezinformarea reală să pară a fi informații adevărate. De asemenea, informațiile adevărate sunt făcute să apară ca dezinformare.

Oamenii sunt complet snooked. Sunt dezinformați de AI. În plus, pentru că deveniseră dependenți de AI și din cauza încrederii că AI făcea ceea ce trebuie, au căzut cârlig, linie și scufundare pentru această AI încălcată. Fără ezitare.

Având în vedere cât de ușor se poate răspândi dezinformarea, răufăcătorii s-ar putea bucura de faptul că existența acestui tip de inteligență artificială este cea mai simplă și mai rapidă modalitate de a-și face minciunile insidioase să facă înconjurul lumii. În mod ironic, desigur, după ce am folosit inoculatorul AI pentru a răspândi în esență boala.

Concluzie

Ar trebui ca AI să se joace cu noi?

Ar putea AI pentru dezinformare și inoculare de dezinformare să fie un cal troian amenințător?

Puteți face un argument de fond pentru a vă face griji în legătură cu un astfel de coșmar.

Alții batjocoresc o astfel de posibilitate. Oamenii sunt suficient de inteligenți pentru a ști când AI încearcă să-i păcălească. Oamenii nu vor cădea de asemenea dribling. Doar idioții s-ar lăsa induși în eroare de o astfel de IA. Acestea sunt replicile și contraargumentele obișnuite.

Nu dorind să par mai puțin decât admirând pe deplin oamenii și natura umană, aș sugera doar că există indicii ample că oamenii ar putea cădea în IA care îi induce în eroare.

Există o problemă și mai mare, care probabil planează peste toate acestea.

Cine produce IA și cum decide algoritmic AI ceea ce este considerat dezinformare și dezinformare?

O întreagă luptă are loc astăzi în lume în general despre ceea ce constituie în mod specific dezinformarea și dezinformarea. Unii susțin că faptele sunt fapte, astfel încât nu poate exista niciodată confuzie între informațiile corecte și informațiile improprii. Diavolul, deși uneori este în detalii, asta este al naibii de sigur.

O remarcă finală deocamdată. Abraham Lincoln a declarat celebru: „Poți păcăli toți oamenii o dată și unii dintre oameni tot timpul, dar nu poți păcăli toți oamenii tot timpul”.

Va fi IA, care este folosită pentru a ajuta la inocularea umanității de dezinformare și dezinformare, un instrument vital pentru a se asigura că nu toți oamenii pot fi păcăliți tot timpul? Sau ar putea fi folosit pentru a păcăli mai mulți oameni mai mult timp?

Timpul va spune.

Și asta cu siguranță nu este dezinformare sau dezinformare.

Sursa: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/