AI TRiSM: Soargje dat AI etysk bliuwt

Ofbyldingskredyt:
Image credit
iStock

AI TRiSM: Soargje dat AI etysk bliuwt

AI TRiSM: Soargje dat AI etysk bliuwt

Subheading tekst
Bedriuwen wurde oproppen om noarmen en belied te meitsjen dy't de grinzen fan keunstmjittige yntelliginsje dúdlik definiearje.
    • Skriuwer:
    • Namme fan auteur
      Quantumrun Foresight
    • Oktober 20, 2023

    Ynsjoch gearfetting

    Yn 2022 yntrodusearre ûndersyksbedriuw Gartner AI TRiSM, stiet foar AI Trust, Risk, and Security Management, om it bestjoer en betrouberens fan AI-modellen te garandearjen. It ramt bestiet út fiif pylders: ferklearjeberens, modeloperaasjes, deteksje fan gegevensanomaly, ferset tsjin adversariële oanfallen en gegevensbeskerming. It rapport beklammet dat min behear fan AI-risiko's kin liede ta signifikante ferliezen en feiligensbrekken. It ymplementearjen fan AI TRiSM fereasket in cross-funksjoneel team fan juridyske, neilibjen, IT, en gegevensanalyse. It ramt is fan doel in kultuer fan "ferantwurde AI" op te bouwen, rjochte op etyske en juridyske soargen, en sil wierskynlik ynfloed hawwe op ynhiertrends, regearingsregels en etyske oerwagings yn AI.

    AI TRiSM kontekst

    Neffens Gartner binne d'r fiif pylders foar AI TriSM: ferklearjeberens, Modeloperaasjes (ModelOps), deteksje fan gegevensanomaly, wjerstân tsjin tsjinoanfal, en gegevensbeskerming. Op grûn fan Gartner's projeksjes sille organisaasjes dy't dizze pylders ymplementearje in 50 prosint ympuls yn har AI-modelprestaasjes yn relaasje ta oannimmen, bedriuwsdoelen en akseptaasje fan brûkers oant 2026. Derneist sille AI-oandreaune masines 20 prosint fan 'e wrâldbefolking meitsje. en draacht 40 prosint fan 'e totale ekonomyske produktiviteit troch 2028.

    De befinings fan Gartner's enkête suggerearje dat in protte organisaasjes hûnderten as tûzenen AI-modellen hawwe ymplementearre dy't IT-bestjoerders net kinne begripe of ynterpretearje. Organisaasjes dy't AI-relatearre risiko's net adekwaat beheare, binne signifikant mear gefoelich foar ûngeunstige útkomsten en ynbreuken. De modellen meie net funksjonearje lykas bedoeld, wat liedt ta feiligens en privacy oertredings, en finansjele, yndividuele en reputaasje skea. Unjildige ymplemintaasje fan AI kin organisaasjes ek feroarsaakje om ferkearde saaklike besluten te nimmen.

    Om AI TRiSM mei súkses te ymplementearjen, is in cross-funksjoneel team fan juridysk, neilibjen, feiligens, IT, en gegevensanalytyske personiel fereaske. It oprjochtsjen fan in tawijd team of taakgroep mei juste fertsjintwurdiging fan elk bedriuwsgebiet belutsen by it AI-projekt sil ek optimale resultaten opleverje. It is ek essinsjeel om te soargjen dat elk teamlid har rollen en ferantwurdlikheden dúdlik begrypt, lykas de doelen en doelstellingen fan it AI TRiSM-inisjatyf.

    Disruptive ynfloed

    Om AI feilich te meitsjen, advisearret Gartner ferskate fitale stappen. Earst moatte organisaasjes de potinsjele risiko's yn ferbân brocht mei AI begripe en hoe't se se kinne mitigearje. Dizze ynspanning fereasket in wiidweidige risiko-beoardieling dy't net allinich de technology sels beskôget, mar ek de ynfloed op minsken, prosessen en it miljeu.

    Twadder moatte organisaasjes ynvestearje yn AI-bestjoer, dy't belied, prosedueres en kontrôles omfettet foar it behearen fan AI-risiko's. Dizze strategy omfettet it garandearjen dat AI-systemen transparant, ferklearje, ferantwurdelje en foldogge oan relevante wetten en regeljouwing. Derneist binne trochgeande monitoaring en kontrôle fan AI-modellen krúsjaal om potinsjele risiko's te identifisearjen en te ferminderjen dy't yn 'e rin fan' e tiid kinne ûntstean. Uteinlik moatte organisaasjes in kultuer fan AI-feiligens ûntwikkelje, bewustwêzen, ûnderwiis en training befoarderje ûnder meiwurkers en belanghawwenden. Dizze stappen omfetsje training oer it etysk gebrûk fan AI, de risiko's ferbûn mei AI, en hoe't jo problemen as soargen kinne identifisearje en rapportearje. 

    Dizze ynspanningen sille wierskynlik resultearje yn mear bedriuwen dy't har ferantwurdlike AI-ôfdielingen bouwe. Dit opkommende bestjoerskader behannelet de juridyske en etyske obstakels yn ferbân mei AI troch te dokumintearjen hoe't organisaasjes har oanpakke. It ramt en de dêrby hearrende inisjativen wolle ûndúdlikens eliminearje om ûnbedoelde negative gefolgen foar te kommen. De begjinsels fan in ferantwurde AI-kader rjochtsje har op it ûntwerpen, ûntwikkeljen en brûken fan AI op manieren dy't meiwurkers profitearje, wearde leverje oan klanten en posityf beynfloedzje de maatskippij.

    Gefolgen fan AI TRiSM

    Widere gefolgen fan AI TRiSM kinne omfetsje: 

    • As AI TRiSM hieltyd wichtiger wurdt, sille bedriuwen mear betûfte arbeiders moatte hiere mei kennis fan dit fjild, lykas AI-befeiligingsanalisten, risikomanagers en etici.
    • Nije etyske en morele oerwagings, lykas de needsaak foar transparânsje, earlikens en ferantwurding by it brûken fan AI-systemen.
    • AI-fergrutte ynnovaasjes dy't feilich, betrouber en betrouber binne.
    • Ferhege druk foar regearingsregeling om partikulieren en organisaasjes te beskermjen tsjin risiko's ferbûn mei AI-systemen.
    • In grutter fokus op it garandearjen dat AI-systemen net betinke binne tsjin bepaalde groepen of yndividuen.
    • Nije kânsen foar dyjingen dy't AI-feardigens hawwe en dy sûnder harren mooglik ferpleatse.
    • Fergrutte enerzjyferbrûk en gegevensopslachkapasiteit foar konstant bywurke trainingsgegevens.
    • Mear bedriuwen wurde beboete foar it net oannimmen fan wrâldwide noarmen foar ferantwurdlike AI.

    Fragen om te beskôgje

    • As jo ​​​​wurkje yn AI, hoe traint jo bedriuw har algoritmen om etysk te wêzen?
    • Wat binne de útdagings fan it bouwen fan ferantwurde AI-systemen?

    Ynsjoch ferwizings

    De folgjende populêre en ynstitúsjonele keppelings waarden ferwiisd foar dit ynsjoch: