AI TRiSM: Asigurarea faptului că AI rămâne etică

CREDIT DE IMAGINE:
Imagine de credit
iStock

AI TRiSM: Asigurarea faptului că AI rămâne etică

AI TRiSM: Asigurarea faptului că AI rămâne etică

Textul subtitlului
Companiile sunt îndemnate să creeze standarde și politici care să definească clar limitele inteligenței artificiale.
    • Autor:
    • Numele autorului
      Previziune Quantumrun
    • Octombrie 20, 2023

    Rezumat perspectivă

    În 2022, firma de cercetare Gartner a introdus AI TRiSM, care reprezintă AI Trust, Risk, and Security Management, pentru a asigura guvernanța și fiabilitatea modelelor AI. Cadrul constă din cinci piloni: explicabilitatea, operațiunile modelului, detectarea anomaliilor de date, rezistența la atacuri adverse și protecția datelor. Raportul evidențiază faptul că gestionarea defectuoasă a riscurilor AI poate duce la pierderi semnificative și breșe de securitate. Implementarea AI TRiSM necesită o echipă interfuncțională din domeniul juridic, al conformității, al IT și al analizei datelor. Cadrul își propune să construiască o cultură a „IA responsabilă”, concentrându-se pe preocupările etice și legale și este probabil să influențeze tendințele de angajare, reglementările guvernamentale și considerentele etice în IA.

    Contextul AI TRiSM

    Potrivit Gartner, există cinci piloni ai AI TriSM: explicabilitatea, operațiunile modelului (ModelOps), detectarea anomaliilor de date, rezistența la atacuri adverse și protecția datelor. Pe baza proiecțiilor Gartner, organizațiile care implementează acești piloni vor asista la o creștere cu 50% a performanței modelului lor AI în ceea ce privește adoptarea, obiectivele de afaceri și acceptarea utilizatorilor până în 2026. În plus, mașinile alimentate cu AI vor reprezenta 20% din forța de muncă din lume. și contribuie cu 40% din productivitatea economică globală până în 2028.

    Rezultatele sondajului Gartner sugerează că multe organizații au implementat sute sau mii de modele AI pe care directorii IT nu le pot înțelege sau interpreta. Organizațiile care nu gestionează în mod adecvat riscurile legate de inteligența artificială sunt semnificativ mai predispuse să întâmpine rezultate nefavorabile și încălcări. Este posibil ca modelele să nu funcționeze conform intenției, ceea ce duce la încălcări ale securității și confidențialității și prejudicii financiare, individuale și reputaționale. Implementarea incorectă a AI poate determina organizațiile să ia decizii greșite de afaceri.

    Pentru a implementa cu succes AI TRiSM, este necesară o echipă interfuncțională de personal juridic, de conformitate, de securitate, IT și de analiză a datelor. Înființarea unei echipe dedicate sau a unui grup de lucru cu reprezentare adecvată din fiecare zonă de afaceri implicată în proiectul AI va produce, de asemenea, rezultate optime. De asemenea, este esențial să ne asigurăm că fiecare membru al echipei își înțelege în mod clar rolurile și responsabilitățile, precum și scopurile și obiectivele inițiativei AI TRiSM.

    Impact perturbator

    Pentru ca AI să fie sigură, Gartner recomandă câțiva pași esențiali. În primul rând, organizațiile trebuie să înțeleagă potențialele riscuri asociate cu AI și cum să le atenueze. Acest efort necesită o evaluare cuprinzătoare a riscurilor care să ia în considerare nu numai tehnologia în sine, ci și impactul acesteia asupra oamenilor, proceselor și mediului.

    În al doilea rând, organizațiile trebuie să investească în guvernanța AI, care include politici, proceduri și controale pentru gestionarea riscurilor AI. Această strategie include asigurarea faptului că sistemele AI sunt transparente, explicabile, responsabile și respectă legile și reglementările relevante. În plus, monitorizarea și auditarea continuă a modelelor AI sunt cruciale pentru a identifica și a atenua orice riscuri potențiale care pot apărea în timp. În cele din urmă, organizațiile trebuie să dezvolte o cultură a siguranței AI, promovând conștientizarea, educația și formarea în rândul angajaților și părților interesate. Acești pași includ instruire privind utilizarea etică a IA, riscurile asociate cu IA și modul de identificare și raportare a problemelor sau preocupărilor. 

    Aceste eforturi vor avea ca rezultat probabil ca mai multe companii să-și construiască departamentele de IA responsabilă. Acest cadru de guvernanță în curs de dezvoltare abordează obstacolele legale și etice legate de IA prin documentarea modului în care organizațiile le abordează. Cadrul și inițiativele sale asociate doresc să elimine ambiguitatea pentru a preveni consecințele negative neintenționate. Principiile unui cadru de inteligență artificială responsabilă se concentrează pe proiectarea, dezvoltarea și utilizarea inteligenței artificiale în moduri care să beneficieze angajații, să ofere valoare clienților și să aibă un impact pozitiv asupra societății.

    Implicațiile AI TRiSM

    Implicațiile mai largi ale AI TRiSM pot include: 

    • Pe măsură ce AI TRiSM devine din ce în ce mai important, companiile vor trebui să angajeze mai mulți lucrători calificați și cunoscători în acest domeniu, cum ar fi analiști de securitate AI, manageri de risc și eticieni.
    • Noi considerații etice și morale, cum ar fi nevoia de transparență, corectitudine și responsabilitate în utilizarea sistemelor AI.
    • Inovații sporite de AI, care sunt sigure, de încredere și de încredere.
    • Presiunea crescută pentru reglementările guvernamentale pentru a proteja persoanele și organizațiile de riscurile asociate cu sistemele AI.
    • Un accent mai mare pe asigurarea faptului că sistemele AI nu sunt părtinitoare împotriva anumitor grupuri sau indivizi.
    • Noi oportunități pentru cei cu abilități AI și potențial să-i înlocuiască pe cei fără ele.
    • Consum crescut de energie și capacitate de stocare a datelor pentru date de antrenament actualizate constant.
    • Mai multe companii sunt amendate pentru că nu au adoptat standardele globale de IA responsabilă.

    Întrebări de luat în considerare

    • Dacă lucrați în AI, cum își antrenează compania algoritmii pentru a fi etici?
    • Care sunt provocările construirii de sisteme AI responsabile?

    Referințe de perspectivă

    Următoarele linkuri populare și instituționale au fost menționate pentru această perspectivă: