AI TRiSM: Certigi ke AI restas etika

BILDA KREDITO:
Bildo kredito
iStock

AI TRiSM: Certigi ke AI restas etika

AI TRiSM: Certigi ke AI restas etika

Subtitolo teksto
Firmaoj estas instigitaj krei normojn kaj politikojn, kiuj klare difinas la limojn de artefarita inteligenteco.
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Oktobro 20, 2023

    Enrigarda resumo

    En 2022, esplorfirmao Gartner lanĉis AI TRiSM, kiu signifas AI Trust, Risk, and Security Management, por certigi la regadon kaj fidindecon de AI-modeloj. La kadro konsistas el kvin kolonoj: klarigebleco, modeloperacioj, datuma anomalio-detekto, rezisto al kontraŭaj atakoj kaj datumprotekto. La raporto emfazas, ke malbona administrado de AI-riskoj povas konduki al gravaj perdoj kaj sekurecaj breĉoj. Efektivigo de AI TRiSM postulas transfunkcian teamon de jura, konformeco, IT kaj datuma analizo. La kadro celas konstrui kulturon de "Respondeca AI", koncentriĝanta sur etikaj kaj laŭleĝaj zorgoj, kaj verŝajne influos dungajn tendencojn, registarajn regularojn kaj etikajn konsiderojn en AI.

    AI TRiSM kunteksto

    Laŭ Gartner, estas kvin kolonoj al AI TriSM: klarigebleco, Model Operacioj (ModelOps), detekto de anomalioj de datumoj, kontraŭataka rezisto kaj protekto de datumoj. Surbaze de la projekcioj de Gartner, organizoj kiuj efektivigas ĉi tiujn kolonojn atestos 50-procentan akcelon en sia AI-modela efikeco rilate al adopto, komercaj celoj kaj uzantakcepto antaŭ 2026. Aldone, AI-funkciigitaj maŝinoj konsistigos 20 procentojn de la monda laborantaro. kaj kontribuu 40 procentojn de totala ekonomia produktiveco antaŭ 2028.

    La trovoj de la enketo de Gartner sugestas, ke multaj organizoj efektivigis centojn aŭ milojn da AI-modeloj, kiujn IT-oficuloj ne povas kompreni aŭ interpreti. Organizoj, kiuj ne adekvate administras AI-rilatajn riskojn, estas signife pli inklinaj renkonti malfavorajn rezultojn kaj malobservojn. La modeloj eble ne funkcias kiel celite, kondukante al malobservoj pri sekureco kaj privateco, kaj financa, individua kaj reputacia damaĝo. Nepreciza efektivigo de AI ankaŭ povas igi organizojn fari misgviditajn komercajn decidojn.

    Por sukcese efektivigi AI TRiSM, necesas transfunkcia teamo de jura, konformeco, sekureco, IT kaj datuma analizisto. Establi diligentan teamon aŭ specialtrupon kun taŭga reprezentado de ĉiu komerca areo implikita en la AI-projekto ankaŭ donos optimumajn rezultojn. Ankaŭ estas esence certigi, ke ĉiu teamano klare komprenas siajn rolojn kaj respondecojn, same kiel la celojn kaj celojn de la iniciato AI TRiSM.

    Disrompa efiko

    Por ke AI sekura, Gartner rekomendas plurajn esencajn paŝojn. Unue, organizoj devas kompreni la eblajn riskojn asociitajn kun AI kaj kiel mildigi ilin. Ĉi tiu penado postulas ampleksan riskan taksadon, kiu konsideras ne nur la teknologion mem sed ankaŭ ĝian efikon al homoj, procezoj kaj la medio.

    Due, organizoj devas investi en AI-regado, kiu inkluzivas politikojn, procedurojn kaj kontrolojn por administri AI-riskojn. Ĉi tiu strategio inkluzivas certigi, ke AI-sistemoj estas travideblaj, klarigeblaj, respondecaj kaj konformas al koncernaj leĝoj kaj regularoj. Krome, daŭra monitorado kaj revizio de AI-modeloj estas decidaj por identigi kaj mildigi eventualajn riskojn kiuj povas aperi kun la tempo. Fine, organizoj devas evoluigi kulturon de AI-sekureco, antaŭenigante konscion, edukadon kaj trejnadon inter dungitoj kaj koncernatoj. Ĉi tiuj paŝoj inkluzivas trejnadon pri la etika uzo de AI, la riskoj asociitaj kun AI, kaj kiel identigi kaj raporti problemojn aŭ zorgojn. 

    Ĉi tiuj klopodoj verŝajne rezultos, ke pli da kompanioj konstruos siajn Respondecan AI-fakojn. Ĉi tiu emerĝanta administradkadro traktas la leĝajn kaj etikajn obstaklojn ligitajn al AI dokumentante kiel organizoj aliras ilin. La kadro kaj ĝiaj rilataj iniciatoj volas elimini ambiguecon por malhelpi neintencitajn negativajn sekvojn. La principoj de Respondeca AI-kadro temigas projektadon, evoluadon kaj uzadon de AI en manieroj kiuj profitigas dungitojn, provizas valoron al klientoj kaj pozitive influas la socion.

    Implicoj de AI TRiSM

    Pli larĝaj implicoj de AI TRiSM povas inkludi: 

    • Ĉar AI TRiSM iĝas ĉiam pli grava, kompanioj devos dungi pli lertajn laboristojn spertajn en ĉi tiu kampo, kiel ekzemple AI-sekurecaj analizistoj, riskaj administrantoj kaj etikistoj.
    • Novaj etikaj kaj moralaj konsideroj, kiel la bezono de travidebleco, justeco kaj respondeco en uzado de AI-sistemoj.
    • AI-pliigitaj novigoj, kiuj estas sekuraj, fidindaj kaj fidindaj.
    • Pliigita premo por registara reguligo por protekti individuojn kaj organizojn kontraŭ riskoj asociitaj kun AI-sistemoj.
    • Pli granda fokuso por certigi, ke AI-sistemoj ne estas partiaj kontraŭ apartaj grupoj aŭ individuoj.
    • Novaj ŝancoj por tiuj kun AI-kapabloj kaj eble delokigi tiujn sen ili.
    • Pliigita energikonsumo kaj datumstoka kapablo por konstante ĝisdatigitaj trejnaj datumoj.
    • Pli da kompanioj estas monpunitaj pro ne adoptado de tutmondaj Respondecaj AI-normoj.

    Konsiderindaj demandoj

    • Se vi laboras en AI, kiel via kompanio trejnas siajn algoritmojn por esti etika?
    • Kio estas la defioj konstrui Respondecajn AI-sistemojn?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno: