AI TRiSM: Zagotavljanje, da AI ostaja etičen

KREDIT ZA SLIKO:
Image kredit
iStock

AI TRiSM: Zagotavljanje, da AI ostaja etičen

AI TRiSM: Zagotavljanje, da AI ostaja etičen

Besedilo podnaslova
Podjetja so pozvana, naj oblikujejo standarde in politike, ki jasno določajo meje umetne inteligence.
    • Avtor:
    • ime avtorja
      Quantumrun Foresight
    • Oktober 20, 2023

    Povzetek vpogleda



    Leta 2022 je raziskovalno podjetje Gartner predstavilo AI TRiSM, kar pomeni AI Trust, Risk, and Security Management, da bi zagotovilo upravljanje in zanesljivost modelov AI. Ogrodje je sestavljeno iz petih stebrov: razložljivosti, modelnih operacij, odkrivanja anomalij v podatkih, odpornosti na kontradiktorne napade in zaščite podatkov. Poročilo poudarja, da lahko slabo obvladovanje tveganj umetne inteligence povzroči znatne izgube in kršitve varnosti. Implementacija AI TRiSM zahteva medfunkcionalno ekipo s področja prava, skladnosti, IT in analitike podatkov. Cilj okvira je zgraditi kulturo »odgovorne umetne inteligence«, ki se osredotoča na etične in pravne pomisleke, in bo verjetno vplival na trende zaposlovanja, vladne predpise in etične vidike umetne inteligence.



    Kontekst AI TRiSM



    Po mnenju Gartnerja obstaja pet stebrov AI TriSM: razložljivost, modelne operacije (ModelOps), odkrivanje anomalij v podatkih, odpornost proti kontradiktornim napadom in zaščita podatkov. Na podlagi Gartnerjevih napovedi bodo organizacije, ki izvajajo te stebre, do leta 50 priča 2026-odstotnemu povečanju uspešnosti svojih modelov umetne inteligence glede na sprejetje, poslovne cilje in sprejemanje uporabnikov. Poleg tega bodo stroji, ki jih poganja umetna inteligenca, predstavljali 20 odstotkov svetovne delovne sile. in do leta 40 prispevali 2028 odstotkov celotne gospodarske produktivnosti.



    Ugotovitve Gartnerjeve raziskave kažejo, da so številne organizacije implementirale na stotine ali tisoče modelov umetne inteligence, ki jih vodje IT ne morejo razumeti ali interpretirati. Organizacije, ki ne obvladujejo ustrezno tveganj, povezanih z umetno inteligenco, so bistveno bolj nagnjene k neugodnim izidom in kršitvam. Modeli morda ne bodo delovali, kot je predvideno, kar bo povzročilo kršitve varnosti in zasebnosti ter finančno škodo, škodo posameznika in ugled. Netočno izvajanje umetne inteligence lahko tudi povzroči, da organizacije sprejemajo napačne poslovne odločitve.



    Za uspešno implementacijo AI TRiSM je potrebna medfunkcionalna ekipa pravnega osebja, osebja za skladnost, varnost, IT in analitiko podatkov. Vzpostavitev namenske ekipe ali delovne skupine z ustrezno zastopanostjo vseh poslovnih področij, vključenih v projekt AI, bo prav tako prinesla optimalne rezultate. Bistveno je tudi zagotoviti, da vsak član ekipe jasno razume svoje vloge in odgovornosti ter cilje in cilje pobude AI TRiSM.



    Moteč vpliv



    Da bo umetna inteligenca varna, Gartner priporoča več ključnih korakov. Najprej morajo organizacije razumeti morebitna tveganja, povezana z umetno inteligenco, in kako jih ublažiti. To prizadevanje zahteva celovito oceno tveganja, ki ne upošteva le same tehnologije, ampak tudi njen vpliv na ljudi, procese in okolje.



    Drugič, organizacije morajo vlagati v upravljanje umetne inteligence, ki vključuje politike, postopke in kontrole za obvladovanje tveganj umetne inteligence. Ta strategija vključuje zagotavljanje, da so sistemi umetne inteligence pregledni, razložljivi, odgovorni in skladni z ustreznimi zakoni in predpisi. Poleg tega sta stalno spremljanje in revidiranje modelov umetne inteligence ključnega pomena za prepoznavanje in ublažitev morebitnih tveganj, ki se lahko pojavijo čez čas. Končno morajo organizacije razviti kulturo varnosti umetne inteligence, spodbujati ozaveščenost, izobraževanje in usposabljanje med zaposlenimi in deležniki. Ti koraki vključujejo usposabljanje o etični uporabi umetne inteligence, tveganjih, povezanih z umetno inteligenco, in o tem, kako prepoznati in poročati o težavah ali pomislekih. 



    Rezultat teh prizadevanj bo verjetno več podjetij, ki bodo gradila svoje oddelke za odgovorno umetno inteligenco. Ta nastajajoči okvir upravljanja obravnava pravne in etične ovire, povezane z umetno inteligenco, tako da dokumentira, kako organizacije pristopijo k njim. Okvir in z njim povezane pobude želijo odpraviti dvoumnost in preprečiti nenamerne negativne posledice. Načela okvira odgovorne umetne inteligence se osredotočajo na načrtovanje, razvoj in uporabo umetne inteligence na načine, ki koristijo zaposlenim, zagotavljajo vrednost strankam in pozitivno vplivajo na družbo.



    Posledice AI TRiSM



    Širše posledice AI TRiSM lahko vključujejo: 




    • Ker postaja AI TRiSM vse pomembnejši, bodo morala podjetja zaposliti bolj usposobljene delavce, ki poznajo to področje, kot so varnostni analitiki AI, upravitelji tveganja in strokovnjaki za etiko.

    • Novi etični in moralni vidiki, kot je potreba po preglednosti, pravičnosti in odgovornosti pri uporabi sistemov umetne inteligence.

    • Inovacije, razširjene z AI, ki so varne, vredne zaupanja in zanesljive.

    • Povečan pritisk za vladno ureditev za zaščito posameznikov in organizacij pred tveganji, povezanimi s sistemi umetne inteligence.

    • Večji poudarek na zagotavljanju, da sistemi umetne inteligence niso pristranski do določenih skupin ali posameznikov.

    • Nove priložnosti za tiste z znanji umetne inteligence, ki bi lahko izpodrinile tiste brez njih.

    • Povečana poraba energije in zmogljivost shranjevanja podatkov za stalno posodobljene podatke o vadbi.

    • Več podjetij je kaznovanih zaradi nesprejemanja globalnih standardov odgovorne umetne inteligence.



    Vprašanja, ki jih je treba upoštevati




    • Če delate na področju umetne inteligence, kako vaše podjetje usposablja svoje algoritme, da bodo etični?

    • Kakšni so izzivi gradnje odgovornih sistemov umetne inteligence?


    Insight reference

    Za ta vpogled so bile navedene naslednje priljubljene in institucionalne povezave: