AI TRiSM: Sikring af, at AI forbliver etisk

BILLEDKREDIT:
Image credit
iStock

AI TRiSM: Sikring af, at AI forbliver etisk

AI TRiSM: Sikring af, at AI forbliver etisk

Underoverskriftstekst
Virksomheder opfordres til at skabe standarder og politikker, der klart definerer grænserne for kunstig intelligens.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • Oktober 20, 2023

    Oversigt over indsigt

    I 2022 introducerede analysefirmaet Gartner AI TRiSM, der står for AI Trust, Risk, and Security Management, for at sikre styring og pålidelighed af AI-modeller. Rammen består af fem søjler: forklarlighed, modeloperationer, detektion af dataanomalier, modstand mod kontradiktoriske angreb og databeskyttelse. Rapporten fremhæver, at dårlig styring af AI-risici kan føre til betydelige tab og sikkerhedsbrud. Implementering af AI TRiSM kræver et tværfunktionelt team fra jura, compliance, IT og dataanalyse. Rammen har til formål at opbygge en kultur af "Ansvarlig AI", med fokus på etiske og juridiske bekymringer, og vil sandsynligvis påvirke ansættelsestrends, regeringsbestemmelser og etiske overvejelser inden for AI.

    AI TRiSM kontekst

    Ifølge Gartner er der fem søjler til AI TriSM: Forklarlighed, Model Operations (ModelOps), detektion af dataanomalier, modstand mod modstand mod angreb og databeskyttelse. Baseret på Gartners fremskrivninger vil organisationer, der implementerer disse søjler, opleve et 50 procents løft i deres AI-modelydelse i forhold til vedtagelse, forretningsmål og brugeraccept i 2026. Derudover vil AI-drevne maskiner udgøre 20 procent af verdens arbejdsstyrke og bidrage med 40 procent af den samlede økonomiske produktivitet i 2028.

    Resultaterne af Gartners undersøgelse tyder på, at mange organisationer har implementeret hundredvis eller tusindvis af AI-modeller, som it-chefer ikke kan forstå eller fortolke. Organisationer, der ikke håndterer AI-relaterede risici tilstrækkeligt, er betydeligt mere tilbøjelige til at støde på ugunstige resultater og brud. Modellerne fungerer muligvis ikke efter hensigten, hvilket fører til brud på sikkerheden og privatlivets fred og økonomisk, individuel og omdømmeskade. Upræcis implementering af kunstig intelligens kan også få organisationer til at træffe forkerte forretningsbeslutninger.

    For at implementere AI TRiSM med succes kræves der et tværfunktionelt team af juridisk, compliance-, sikkerheds-, IT- og dataanalysepersonale. Etablering af et dedikeret team eller taskforce med passende repræsentation fra hvert forretningsområde involveret i AI-projektet vil også give optimale resultater. Det er også vigtigt at sikre, at hvert teammedlem tydeligt forstår deres roller og ansvar, såvel som målene og målene for AI TRiSM-initiativet.

    Forstyrrende påvirkning

    For at gøre AI sikker anbefaler Gartner flere vigtige trin. For det første skal organisationer forstå de potentielle risici forbundet med kunstig intelligens, og hvordan de kan afbødes. Denne indsats kræver en omfattende risikovurdering, der ikke kun tager højde for selve teknologien, men også dens indvirkning på mennesker, processer og miljøet.

    For det andet skal organisationer investere i AI-styring, som omfatter politikker, procedurer og kontroller til styring af AI-risici. Denne strategi omfatter at sikre, at AI-systemer er gennemsigtige, forklarlige, ansvarlige og overholder relevante love og regler. Derudover er løbende overvågning og revision af AI-modeller afgørende for at identificere og afbøde eventuelle potentielle risici, der kan opstå over tid. Endelig skal organisationer udvikle en kultur for AI-sikkerhed, fremme bevidsthed, uddannelse og træning blandt medarbejdere og interessenter. Disse trin inkluderer træning i den etiske brug af AI, risiciene forbundet med AI, og hvordan man identificerer og rapporterer problemer eller bekymringer. 

    Disse bestræbelser vil sandsynligvis resultere i, at flere virksomheder bygger deres ansvarlige AI-afdelinger. Denne nye styringsramme adresserer de juridiske og etiske hindringer i forbindelse med kunstig intelligens ved at dokumentere, hvordan organisationer griber dem an. Rammerne og de tilhørende initiativer ønsker at fjerne tvetydighed for at forhindre utilsigtede negative konsekvenser. Principperne for en ansvarlig AI-ramme fokuserer på at designe, udvikle og bruge AI på måder, der gavner medarbejderne, giver værdi til kunderne og påvirker samfundet positivt.

    Implikationer af AI TRiSM

    Bredere implikationer af AI TRiSM kan omfatte: 

    • Efterhånden som AI TRiSM bliver stadig vigtigere, bliver virksomheder nødt til at ansætte flere faglærte arbejdere med viden på dette område, såsom AI-sikkerhedsanalytikere, risikomanagere og etikere.
    • Nye etiske og moralske overvejelser, såsom behovet for gennemsigtighed, retfærdighed og ansvarlighed ved brug af AI-systemer.
    • AI-forstærkede innovationer, der er sikre, troværdige og pålidelige.
    • Øget pres for regeringsregulering for at beskytte enkeltpersoner og organisationer mod risici forbundet med AI-systemer.
    • Et større fokus på at sikre, at AI-systemer ikke er forudindtaget i forhold til bestemte grupper eller individer.
    • Nye muligheder for dem med AI-færdigheder og potentielt at fortrænge dem uden dem.
    • Øget energiforbrug og datalagringskapacitet til konstant opdaterede træningsdata.
    • Flere virksomheder får bøder for ikke at have vedtaget globale standarder for ansvarlig kunstig intelligens.

    Spørgsmål at overveje

    • Hvis du arbejder med kunstig intelligens, hvordan træner din virksomhed så sine algoritmer til at være etiske?
    • Hvad er udfordringerne ved at bygge ansvarlige AI-systemer?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt: