AI TRiSM: Гарантиране, че AI остава етичен

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

AI TRiSM: Гарантиране, че AI остава етичен

AI TRiSM: Гарантиране, че AI остава етичен

Подзаглавен текст
Компаниите са призовани да създадат стандарти и политики, които ясно определят границите на изкуствения интелект.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Октомври 20, 2023

    Резюме на прозрението

    През 2022 г. изследователската фирма Gartner представи AI TRiSM, което означава AI Trust, Risk и Security Management, за да гарантира управлението и надеждността на моделите на AI. Рамката се състои от пет стълба: обяснимост, моделни операции, откриване на аномалии в данните, устойчивост на противникови атаки и защита на данните. Докладът подчертава, че лошото управление на рисковете от ИИ може да доведе до значителни загуби и пробиви в сигурността. Внедряването на AI TRiSM изисква многофункционален екип от правен, спазване на изискванията, ИТ и анализ на данни. Рамката има за цел да изгради култура на „Отговорен AI“, като се фокусира върху етични и правни проблеми и е вероятно да повлияе на тенденциите при наемане, правителствените разпоредби и етичните съображения в AI.

    AI TRiSM контекст

    Според Gartner има пет стълба на AI TriSM: обяснимост, операции на модела (ModelOps), откриване на аномалии в данните, устойчивост на противникови атаки и защита на данните. Въз основа на прогнозите на Gartner, организациите, които внедряват тези стълбове, ще станат свидетели на 50-процентно увеличение на производителността на своите AI модели по отношение на приемането, бизнес целите и приемането от потребителите до 2026 г. Освен това, захранваните с AI машини ще съставляват 20 процента от работната сила в света и да допринасят с 40 процента от общата икономическа продуктивност до 2028 г.

    Резултатите от проучването на Gartner предполагат, че много организации са внедрили стотици или хиляди AI модели, които ИТ ръководителите не могат да разберат или интерпретират. Организациите, които не управляват адекватно рисковете, свързани с ИИ, са значително по-податливи на неблагоприятни резултати и нарушения. Моделите може да не функционират по предназначение, което води до нарушаване на сигурността и поверителността и финансови, лични и репутационни вреди. Неточното внедряване на AI също може да накара организациите да вземат погрешни бизнес решения.

    За успешно внедряване на AI TRiSM е необходим многофункционален екип от правен персонал, персонал за съответствие, сигурност, ИТ и анализ на данни. Създаването на специален екип или работна група с подходящо представителство от всяка бизнес област, участваща в проекта за ИИ, също ще доведе до оптимални резултати. Също така е важно да се гарантира, че всеки член на екипа ясно разбира своите роли и отговорности, както и целите и задачите на инициативата AI TRiSM.

    Разрушително въздействие

    За да направи AI безопасен, Gartner препоръчва няколко жизненоважни стъпки. Първо, организациите трябва да разберат потенциалните рискове, свързани с ИИ, и как да ги смекчат. Това усилие изисква цялостна оценка на риска, която отчита не само самата технология, но и нейното въздействие върху хората, процесите и околната среда.

    Второ, организациите трябва да инвестират в управление на ИИ, което включва политики, процедури и контроли за управление на рисковете от ИИ. Тази стратегия включва гарантиране, че AI системите са прозрачни, обясними, отчетни и отговарят на съответните закони и разпоредби. Освен това, непрекъснатият мониторинг и одит на моделите на ИИ са от решаващо значение за идентифициране и смекчаване на всички потенциални рискове, които могат да възникнат с течение на времето. И накрая, организациите трябва да развият култура на безопасност на ИИ, насърчавайки осведомеността, образованието и обучението сред служителите и заинтересованите страни. Тези стъпки включват обучение за етичното използване на AI, рисковете, свързани с AI, и как да идентифицирате и докладвате проблеми или опасения. 

    Тези усилия вероятно ще доведат до това повече компании да изградят своите отдели за отговорен AI. Тази нововъзникваща рамка за управление адресира правните и етични пречки, свързани с ИИ, като документира как организациите подхождат към тях. Рамката и свързаните с нея инициативи искат да премахнат неяснотата, за да предотвратят непредвидени негативни последици. Принципите на рамката за отговорен AI се фокусират върху проектирането, разработването и използването на AI по начини, които са от полза за служителите, предоставят стойност на клиентите и оказват положително влияние върху обществото.

    Последици от AI TRiSM

    По-широките последици от AI TRiSM могат да включват: 

    • Тъй като AI TRiSM става все по-важен, компаниите ще трябва да наемат повече квалифицирани работници с познания в тази област, като анализатори на сигурността на AI, мениджъри на риска и специалисти по етика.
    • Нови етични и морални съображения, като необходимостта от прозрачност, справедливост и отчетност при използването на AI системи.
    • Иновации с изкуствен интелект, които са сигурни, надеждни и надеждни.
    • Повишен натиск за правителствени регулации за защита на лица и организации от рискове, свързани със системите с ИИ.
    • По-голям фокус върху гарантирането, че AI системите не са предубедени срещу определени групи или лица.
    • Нови възможности за тези с AI умения и потенциално изместващи тези без такива.
    • Повишена консумация на енергия и капацитет за съхранение на данни за постоянно актуализирани данни за обучение.
    • Повече компании са глобени за неприемане на глобалните стандарти за отговорен изкуствен интелект.

    Въпроси за разглеждане

    • Ако работите в AI, как вашата компания обучава своите алгоритми да бъдат етични?
    • Какви са предизвикателствата пред изграждането на отговорни AI системи?

    Препратки към Insight

    Следните популярни и институционални връзки бяха посочени за тази информация: