3 motive pentru care organizația dvs. va avea nevoie de evaluatori externi de algoritmi

De Satta Sarmah-Hightower

Liderii de afaceri stoarce toată valoarea pe care o pot din inteligența artificială (AI). Un studiu KPMG din 2021 constată Majoritatea liderilor de afaceri guvernamentali, de producție industrială, de servicii financiare, de retail, de știința vieții și de asistență medicală spun că AI este cel puțin moderat funcțională în organizațiile lor. De asemenea, studiul constată că jumătate dintre respondenți spun că organizația lor a accelerat adoptarea AI ca răspuns la pandemia de Covid-19. La organizațiile în care AI a fost adoptată, cel puțin jumătate spun că tehnologia a depășit așteptările.

Algoritmii AI sunt din ce în ce mai responsabili pentru o varietate de interacțiuni și inovații de astăzi, de la personalizarea recomandări de produs și serviciu clienți experiențe pentru bănci decizii de creditare și chiar răspunsul poliției.

Dar, pentru toate beneficiile pe care le oferă, algoritmii de inteligență artificială prezintă riscuri mari dacă nu sunt monitorizați și evaluați în mod eficient pentru rezistență, corectitudine, explicabilitate și integritate. Pentru a ajuta liderii de afaceri cu monitorizarea și evaluarea AI, studiul menționat mai sus arată că a un număr tot mai mare de lideri de afaceri doresc ca guvernul să reglementeze AI pentru a permite organizațiilor să investească în tehnologia și procesele de afaceri potrivite. Pentru suportul și supravegherea necesare, este înțelept să luați în considerare evaluările externe oferite de un furnizor de servicii cu experiență în furnizarea de astfel de servicii. Iată trei motive pentru care.

1. Algoritmii sunt „cutii negre”

Algoritmii AI – care învață din date pentru a rezolva probleme și pentru a optimiza sarcinile – fac sistemele mai inteligente, permițându-le să culeagă și să genereze informații mult mai rapid decât ar fi putut oamenii vreodată.

Cu toate acestea, unele părți interesate consideră acești algoritmi ca fiind „cutii negre”, explică Drew Rosen, director general de audit la KPMG, o firmă de servicii profesionale de top. Mai exact, este posibil ca anumite părți interesate să nu înțeleagă cum a ajuns algoritmul la o anumită decizie și, prin urmare, este posibil să nu aibă încredere în corectitudinea sau acuratețea acelei decizii.

„Rezultatele obținute din algoritm pot fi predispuse la părtinire și la interpretarea greșită a rezultatelor”, spune Rosen. „Acest lucru poate duce, de asemenea, la unele riscuri pentru entitate, deoarece acestea valorifică acele rezultate și le împărtășesc publicului și părților interesate.”

Un algoritm care utilizează date defecte, de exemplu, este ineficient în cel mai bun caz – și dăunător în cel mai rău caz. Cum ar putea arăta asta în practică? Luați în considerare un chatbot bazat pe inteligență artificială care oferă utilizatorilor informații greșite despre cont sau un instrument de traducere automată a limbii care traduce textul incorect. Ambele cazuri ar putea duce la erori grave sau interpretări greșite pentru entitățile sau companiile guvernamentale, precum și pentru constituenții și clienții care se bazează pe deciziile luate de acei algoritmi.

Un alt factor care contribuie la problema cutiei negre este atunci când părtinirea inerentă se infiltrează în dezvoltarea modelelor AI, ceea ce poate cauza luarea deciziilor părtinitoare. Creditorii, de exemplu, folosesc din ce în ce mai mult AI pentru a prezice bonitatea debitorilor potențiali pentru a lua decizii de creditare. Cu toate acestea, poate apărea un risc atunci când intrările cheie în IA, cum ar fi scorul de credit al unui potențial împrumutat, are o eroare materială, ceea ce duce la refuzul acestor persoane de împrumuturi.

Acest lucru evidențiază necesitatea unui evaluator extern care să poată servi ca un evaluator imparțial și să ofere o evaluare concentrată, bazată pe criterii acceptate, a relevanței și fiabilității datelor istorice și a ipotezelor care alimentează un algoritm.

2. Părțile interesate și autoritățile de reglementare cer transparență

În 2022, nu existau cerințe actuale de raportare pentru IA responsabilă. Cu toate acestea, spune Rosen, „la fel cum organele de conducere au introdus reglementările ESG [de mediu, sociale și de guvernanță] pentru raportați asupra anumitor parametri ESG, este doar o chestiune de timp să vedem cerințe suplimentare de raportare a reglementărilor pentru IA responsabilă.”

De fapt, în vigoare de la 1 ianuarie 2023, New York City Legea locala 144 necesită ca un audit de părtinire să fie efectuat pe un instrument automatizat de decizie de angajare înainte de a fi utilizat.

Iar la nivel federal, Actul privind Inițiativa Națională de Inteligență Artificială din 2020— care se bazează pe o ordin executiv 2019— se concentrează pe standardele tehnice și îndrumările AI. În plus, cel Legea privind responsabilitatea algoritmică ar putea necesita evaluări de impact ale sistemelor de decizie automatizate și procese de decizie critice îmbunătățite. Și peste mări, Legea inteligenței artificiale a fost propus, oferind un cadru de reglementare cuprinzător cu obiective specifice privind siguranța, conformitatea, guvernanța și încrederea IA.

Odată cu aceste schimbări, organizațiile sunt sub un microscop de guvernare. Un evaluator de algoritm poate furniza astfel de rapoarte care abordează cerințele de reglementare și sporesc transparența părților interesate, evitând în același timp riscul ca părțile interesate să interpreteze greșit sau să fie greșit de rezultatele evaluării.

3. Companiile beneficiază de managementul riscului pe termen lung

Steve Camara, partener în practica KPMG de asigurare a tehnologiei, prezice că investițiile în AI vor continua să crească pe măsură ce entitățile vor continua cu automatizarea proceselor, dezvoltând inovații care îmbunătățesc experiența clienților și distribuirea dezvoltării AI între funcțiile de afaceri. Pentru a rămâne competitive și profitabile, organizațiile vor avea nevoie de controale eficiente care nu numai să abordeze deficiențele imediate ale AI, ci și să reducă orice risc pe termen lung asociat cu operațiunile de afaceri alimentate de AI.

Aici intervin evaluatorii externi ca o resursă de încredere și pricepută. Pe măsură ce organizațiile îmbrățișează din ce în ce mai mult integritatea inteligenței artificiale ca un facilitator de afaceri, parteneriatul poate deveni mai puțin un serviciu ad-hoc și mai mult o colaborare consistentă, explică Camara.

„Vedem o cale de urmat în care va trebui să existe o relație continuă între organizațiile care dezvoltă și operaționalizează IA în mod continuu și un evaluator extern obiectiv”, spune el.

O privire spre ceea ce urmează

În viitor, organizațiile ar putea utiliza evaluări externe pe o bază mai mult ciclică, pe măsură ce dezvoltă noi modele, ingerează noi surse de date, integrează soluții de furnizori terți sau navighează noi cerințe de conformitate, de exemplu.

Atunci când sunt impuse cerințe suplimentare de reglementare și de conformitate, evaluatorii externi pot fi capabili să furnizeze servicii pentru a evalua direct cât de bine a implementat sau utilizat AI o organizație în legătură cu acele cerințe. Acești evaluatori ar fi atunci cel mai bine poziționați pentru a împărtăși rezultatele evaluării într-un mod clar și consecvent.

Pentru a valorifica tehnologia, protejându-se și împotriva limitărilor acesteia, o organizație trebuie să caute evaluatori externi care să furnizeze rapoarte pe care se poate baza apoi pentru a demonstra o mai mare transparență atunci când implementează algoritmi. De acolo, atât organizația, cât și părțile interesate pot înțelege mai bine puterea AI și limitările acesteia.

Sursa: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/