AI TRiSM: AI etikoa izaten jarraitzen duela ziurtatzea

IRUDIAREN KREDITUA:
Irudiaren kreditu
iStock

AI TRiSM: AI etikoa izaten jarraitzen duela ziurtatzea

AI TRiSM: AI etikoa izaten jarraitzen duela ziurtatzea

Azpitituluaren testua
Enpresei eskatzen zaie adimen artifizialaren mugak argi definitzen dituzten estandarrak eta politikak sortzeko.
    • Egilea:
    • Egilearen izena
      Quantumrun Prospektiba
    • Urriaren 20, 2023

    Ikuspegiaren laburpena

    2022an, Gartner ikerketa enpresak AI TRiSM aurkeztu zuen, AI Trust, Risk, and Security Management izendapena, AI ereduen gobernantza eta fidagarritasuna bermatzeko. Markoak bost zutabe ditu: azalgarritasuna, ereduen eragiketak, datuen anomaliak detektatzea, erasoen aurkako erresistentzia eta datuen babesa. Txostenak azpimarratzen du AI arriskuen kudeaketa txarrak galera handiak eta segurtasun-hausteak ekar ditzakeela. AI TRiSM inplementatzeko, lege, betetze, informatika eta datuen analitikaren funtzio gurutzatutako talde bat behar da. Esparruak "AI arduratsuaren" kultura eraikitzea du helburu, kezka etiko eta juridikoetan zentratuz, eta baliteke kontratazio-joeretan, gobernu-araudian eta AI-n kontu etikoetan eragina izatea.

    AI TRiSM testuingurua

    Gartner-en arabera, AI TriSMren bost zutabe daude: azalgarritasuna, Model Operations (ModelOps), datuen anomaliak detektatzea, aurkako erasoen erresistentzia eta datuen babesa. Gartnerrek egindako aurreikuspenetan oinarrituta, zutabe hauek ezartzen dituzten erakundeek beren AI ereduaren errendimenduan % 50eko igoera izango dute 2026rako, adopzioarekin, negozio-helburuekin eta erabiltzaileen onarpenarekin. eta 20rako produktibitate ekonomiko osoaren ehuneko 40 ekarpena egitea.

    Gartner-en inkestaren aurkikuntzek iradokitzen dute erakunde askok IT-eko zuzendariek ulertu edo interpretatu ezin dituzten ehunka edo milaka AI eredu inplementatu dituztela. AIarekin erlazionatutako arriskuak behar bezala kudeatzen ez dituzten erakundeek emaitza txarrak eta urraketak aurkitzeko joera handiagoa dute. Baliteke ereduek nahi bezala ez funtzionatzea, segurtasun eta pribatutasun urraketak eta kalte ekonomikoak, indibidualak eta ospea eragiten dutenak. AIaren ezarpen zehatzak ere eragin ditzake erakundeek negozio-erabaki okerrak har ditzaten.

    AI TRiSM arrakastaz inplementatzeko, lege-, betetze-, segurtasun-, informatikako eta datu-analisiko langileez osaturiko talde gurutzatua behar da. AI proiektuan parte hartzen duen negozio-arlo bakoitzeko ordezkaritza egokia duen talde edo lantalde dedikatu bat ezartzeak ere emaitza optimoak emango ditu. Halaber, ezinbestekoa da taldekide bakoitzak argi ulertzen dituela bere eginkizunak eta erantzukizunak, baita AI TRiSM ekimenaren helburuak eta helburuak ere.

    Eragin disruptiboa

    AI segurua izan dadin, Gartnerrek ezinbesteko hainbat urrats gomendatzen ditu. Lehenik eta behin, erakundeek AIarekin lotutako arrisku potentzialak eta horiek arintzeko modua ulertu behar dute. Ahalegin horrek arriskuen ebaluazio integral bat eskatzen du, teknologia bera ez ezik, pertsonengan, prozesuetan eta ingurumenean duen eragina ere kontuan hartzen duena.

    Bigarrenik, erakundeek AIren gobernantzan inbertitu behar dute, AI arriskuak kudeatzeko politikak, prozedurak eta kontrolak barne hartzen dituena. Estrategia honek AI sistemak gardenak, azalgarriak, arduratsuak direla eta dagozkion lege eta araudiak betetzen dituztela ziurtatzea dakar. Gainera, AI ereduen etengabeko jarraipena eta auditoria funtsezkoak dira denboran zehar sor daitezkeen arrisku potentzialak identifikatzeko eta arintzeko. Azkenik, erakundeek AI segurtasunaren kultura garatu behar dute, langileen eta interesdunen artean sentsibilizazioa, hezkuntza eta prestakuntza sustatuz. Urrats horien artean, AIaren erabilera etikoari buruzko prestakuntza, AIarekin lotutako arriskuak eta arazoak edo kezkak identifikatu eta salatzeko modua daude. 

    Ahalegin horiek ziurrenik enpresa gehiagok sortuko dituzte beren AI Arduratsuko sailak. Sortzen ari den gobernantza-esparru honek AIarekin lotutako oztopo juridiko eta etikoei erantzuten die, erakundeek nola hurbiltzen diren dokumentatuz. Esparruak eta hari lotutako ekimenek anbiguotasuna ezabatu nahi dute nahi gabeko ondorio negatiboak saihesteko. AI arduratsuaren esparruaren printzipioak IA diseinatzea, garatzea eta erabiltzean oinarritzen dira, langileei mesede egiteko, bezeroei balioa emateko eta gizartean positiboki eragiteko moduan.

    AI TRiSM-en inplikazioak

    AI TRiSM-en ondorio zabalagoak izan daitezke: 

    • AI TRiSM gero eta garrantzitsuagoa denez, enpresek arlo honetan adituak diren langile trebeagoak kontratatu beharko dituzte, hala nola AI segurtasun analistak, arriskuen kudeatzaileak eta etika.
    • Gogoeta etiko eta moral berriak, hala nola, AI sistemak erabiltzean gardentasuna, zuzentasuna eta erantzukizunaren beharra.
    • AIaren bidez handitutako berrikuntzak, seguruak, fidagarriak eta fidagarriak.
    • Presio areagotu egin da gobernuaren araudiaren alde, pertsonak eta erakundeak AI sistemei lotutako arriskuetatik babesteko.
    • Foku handiagoa AI sistemak talde edo pertsona jakin batzuen aurka alboratuta ez daudela ziurtatzeko.
    • Aukera berriak AI trebetasunak dituztenentzat eta horiek ez dituztenak desplaza ditzakete.
    • Energia-kontsumoa eta datuak biltegiratzeko ahalmena etengabe eguneratzen diren prestakuntza-datuetarako.
    • Enpresa gehiago isunak jasotzen ari dira AI arduratsuaren estandar globalak ez hartzeagatik.

    Kontuan hartu beharreko galderak

    • AIan lan egiten baduzu, nola entrenatzen ari da zure enpresak bere algoritmoak etikoak izateko?
    • Zeintzuk dira AI arduratsuko sistemak eraikitzeko erronkak?

    Insight erreferentziak

    Ikuspegi honetarako honako lotura ezagun eta instituzional hauei erreferentzia egin zaie: