AI TRiSM: Zajištění toho, že AI zůstane etická

KREDIT OBRAZU:
Kredit
iStock

AI TRiSM: Zajištění toho, že AI zůstane etická

AI TRiSM: Zajištění toho, že AI zůstane etická

Text podnadpisu
Společnosti jsou vyzývány, aby vytvořily standardy a zásady, které jasně definují hranice umělé inteligence.
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • Října 20, 2023

    Shrnutí statistik

    V roce 2022 představila výzkumná firma Gartner AI TRiSM, což je zkratka pro AI Trust, Risk and Security Management, aby zajistila správu a spolehlivost modelů AI. Rámec se skládá z pěti pilířů: vysvětlitelnosti, modelových operací, detekce datových anomálií, odolnosti proti útokům protivníka a ochrany dat. Zpráva zdůrazňuje, že špatné řízení rizik AI může vést k významným ztrátám a narušení bezpečnosti. Implementace AI TRiSM vyžaduje mezifunkční tým z oblasti práva, dodržování předpisů, IT a analýzy dat. Rámec si klade za cíl vybudovat kulturu „Zodpovědné umělé inteligence“ se zaměřením na etické a právní zájmy a pravděpodobně ovlivní trendy náboru, vládní nařízení a etické úvahy v AI.

    Kontext AI TRiSM

    Podle společnosti Gartner má AI TriSM pět pilířů: vysvětlitelnost, modelové operace (ModelOps), detekce datových anomálií, odolnost proti nepřátelským útokům a ochrana dat. Na základě projekcí společnosti Gartner budou organizace, které implementují tyto pilíře, svědky 50procentního nárůstu výkonu svých modelů AI ve vztahu k přijetí, obchodním cílům a přijetí uživateli do roku 2026. Kromě toho budou stroje s umělou inteligencí tvořit 20 procent světové pracovní síly. a do roku 40 přispívat 2028 procenty k celkové ekonomické produktivitě.

    Závěry průzkumu společnosti Gartner naznačují, že mnoho organizací implementovalo stovky nebo tisíce modelů umělé inteligence, které IT manažeři nemohou pochopit ani interpretovat. Organizace, které dostatečně neřídí rizika související s AI, jsou výrazně náchylnější k nepříznivým výsledkům a porušením. Modely nemusí fungovat tak, jak bylo zamýšleno, což může vést k narušení bezpečnosti a soukromí a finanční, individuální a reputační újmě. Nepřesná implementace AI může také způsobit, že organizace budou činit zavádějící obchodní rozhodnutí.

    Pro úspěšnou implementaci AI TRiSM je zapotřebí vícefunkční tým právníků, pracovníků v oblasti dodržování předpisů, zabezpečení, IT a analytiků dat. Optimální výsledky přinese také vytvoření specializovaného týmu nebo pracovní skupiny s náležitým zastoupením každé obchodní oblasti zapojené do projektu AI. Je také nezbytné zajistit, aby každý člen týmu jasně chápal své role a odpovědnosti, stejně jako cíle a cíle iniciativy AI TRiSM.

    Rušivý dopad

    Aby byla umělá inteligence bezpečná, Gartner doporučuje několik zásadních kroků. Za prvé, organizace musí pochopit potenciální rizika spojená s AI a jak je zmírnit. Toto úsilí vyžaduje komplexní hodnocení rizik, které zohledňuje nejen technologii samotnou, ale také její dopad na lidi, procesy a životní prostředí.

    Za druhé, organizace musí investovat do správy AI, která zahrnuje zásady, postupy a kontroly pro řízení rizik AI. Tato strategie zahrnuje zajištění toho, aby systémy umělé inteligence byly transparentní, vysvětlitelné, odpovědné a v souladu s příslušnými zákony a předpisy. Průběžné monitorování a audit modelů umělé inteligence jsou navíc zásadní pro identifikaci a zmírnění případných rizik, která mohou časem nastat. A konečně, organizace musí rozvíjet kulturu bezpečnosti AI, podporovat povědomí, vzdělávání a školení mezi zaměstnanci a zúčastněnými stranami. Tyto kroky zahrnují školení o etickém používání umělé inteligence, rizicích spojených s umělou inteligencí a o tom, jak identifikovat a hlásit problémy nebo obavy. 

    Toto úsilí pravděpodobně povede k tomu, že více společností bude budovat svá oddělení odpovědné umělé inteligence. Tento vznikající rámec řízení řeší právní a etické překážky související s umělou inteligencí tím, že dokumentuje, jak k nim organizace přistupují. Rámec a související iniciativy chtějí odstranit nejednoznačnost, aby se předešlo nezamýšleným negativním důsledkům. Principy rámce odpovědné umělé inteligence se zaměřují na navrhování, vývoj a používání umělé inteligence způsoby, které jsou přínosem pro zaměstnance, poskytují hodnotu zákazníkům a mají pozitivní dopad na společnost.

    Důsledky AI TRiSM

    Širší důsledky AI TRiSM mohou zahrnovat: 

    • Jak se AI TRiSM stává stále důležitějším, společnosti budou muset najímat kvalifikovanější pracovníky znalé této oblasti, jako jsou bezpečnostní analytici AI, manažeři rizik a etici.
    • Nové etické a morální aspekty, jako je potřeba transparentnosti, spravedlnosti a odpovědnosti při používání systémů umělé inteligence.
    • Inovace rozšířené o umělou inteligenci, které jsou bezpečné, důvěryhodné a spolehlivé.
    • Zvýšený tlak na vládní regulaci k ochraně jednotlivců a organizací před riziky spojenými se systémy AI.
    • Větší zaměření na zajištění toho, aby systémy umělé inteligence nebyly zaujaté vůči konkrétním skupinám nebo jednotlivcům.
    • Nové příležitosti pro ty, kteří mají dovednosti umělé inteligence, a které potenciálně vytlačují ty, kteří je nemají.
    • Zvýšená spotřeba energie a kapacita úložiště dat pro neustále aktualizované tréninkové údaje.
    • Více společností dostává pokuty za nepřijetí globálních standardů odpovědné umělé inteligence.

    Otázky k zamyšlení

    • Pokud pracujete v AI, jak vaše společnost školí své algoritmy, aby byly etické?
    • Jaké jsou výzvy při budování systémů odpovědné umělé inteligence?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled: