AI TRiSM: Обезбедување дека вештачката интелигенција останува етичка

КРЕДИТ НА СЛИКА:
Слика кредит
iStock

AI TRiSM: Обезбедување дека вештачката интелигенција останува етичка

AI TRiSM: Обезбедување дека вештачката интелигенција останува етичка

Текст за поднаслов
Компаниите се повикани да креираат стандарди и политики кои јасно ги дефинираат границите на вештачката интелигенција.
    • автор:
    • име на авторот
      Quantumrun Foresight
    • Октомври 20, 2023

    Резиме на увид



    Во 2022 година, истражувачката компанија Гартнер го претстави AI TRiSM, што се залага за AI Trust, Risk и Security Management, за да обезбеди управување и доверливост на моделите со вештачка интелигенција. Рамката се состои од пет столба: објаснување, операции на модел, откривање аномалија на податоци, отпорност на противнички напади и заштита на податоците. Извештајот нагласува дека лошото управување со ризиците со вештачка интелигенција може да доведе до значителни загуби и безбедносни прекршувања. Спроведувањето на AI TRiSM бара меѓуфункционален тим од правна, усогласеност, ИТ и аналитика на податоци. Рамката има за цел да изгради култура на „Одговорна вештачка интелигенција“, фокусирајќи се на етичките и правните грижи и веројатно ќе влијае на трендовите за вработување, владините регулативи и етичките размислувања во вештачката интелигенција.



    AI TRiSM контекст



    Според Гартнер, постојат пет столба за AI TriSM: објаснување, модел операции (ModelOps), откривање аномалија на податоци, отпор од противнички напади и заштита на податоците. Врз основа на проекциите на Гартнер, организациите кои ги имплементираат овие столбови ќе бидат сведоци на зголемување од 50 проценти во перформансите на нивниот модел за вештачка интелигенција во однос на усвојувањето, деловните цели и прифаќањето од корисниците до 2026 година. Дополнително, машините со ВИ ќе сочинуваат 20 проценти од работната сила во светот и придонесе со 40 проценти од вкупната економска продуктивност до 2028 година.



    Наодите од истражувањето на Гартнер сугерираат дека многу организации имаат имплементирано стотици или илјадници модели на вештачка интелигенција кои ИТ директорите не можат да ги разберат или протолкуваат. Организациите кои не управуваат соодветно со ризиците поврзани со вештачката интелигенција се значително посклони да наидат на неповолни исходи и прекршувања. Моделите може да не функционираат како што е планирано, што ќе доведе до нарушување на безбедноста и приватноста, како и финансиска, индивидуална и штета на угледот. Неточната имплементација на вештачката интелигенција, исто така, може да предизвика организациите да донесат погрешни деловни одлуки.



    За успешно имплементирање на AI TRiSM, потребен е меѓуфункционален тим составен од правни лица, персонал за усогласеност, безбедност, ИТ и анализа на податоци. Воспоставувањето на посветен тим или работна група со соодветна застапеност од секоја деловна област вклучена во проектот за вештачка интелигенција, исто така, ќе даде оптимални резултати. Исто така, неопходно е да се осигура дека секој член на тимот јасно ги разбира своите улоги и одговорности, како и целите и задачите на иницијативата AI TRiSM.



    Нарушувачко влијание



    За да ја направи вештачката интелигенција безбедна, Гартнер препорачува неколку витални чекори. Прво, организациите треба да ги сфатат потенцијалните ризици поврзани со вештачката интелигенција и како да ги ублажат. Овој напор бара сеопфатна проценка на ризикот што ја зема предвид не само самата технологија туку и нејзиното влијание врз луѓето, процесите и животната средина.



    Второ, организациите треба да инвестираат во управување со вештачка интелигенција, што вклучува политики, процедури и контроли за управување со ризиците со вештачка интелигенција. Оваа стратегија вклучува обезбедување дека системите за вештачка интелигенција се транспарентни, објаснети, одговорни и се усогласени со релевантните закони и прописи. Дополнително, тековното следење и ревизија на моделите на вештачка интелигенција се клучни за да се идентификуваат и ублажат сите потенцијални ризици што може да се појават со текот на времето. Конечно, организациите треба да развијат култура за безбедност на вештачката интелигенција, промовирајќи ја свеста, образованието и обуката меѓу вработените и засегнатите страни. Овие чекори вклучуваат обука за етичка употреба на вештачката интелигенција, ризиците поврзани со вештачката интелигенција и како да се идентификуваат и пријавите проблеми или грижи. 



    Овие напори најверојатно ќе резултираат со повеќе компании кои ќе ги градат своите одделенија за одговорна вештачка интелигенција. Оваа нова рамка за управување се однесува на правните и етичките пречки поврзани со вештачката интелигенција со документирање како организациите им пристапуваат. Рамката и нејзините придружни иницијативи сакаат да ја елиминираат нејаснотијата за да спречат несакани негативни последици. Принципите на рамката за одговорна вештачка интелигенција се фокусираат на дизајнирање, развивање и користење на вештачка интелигенција на начини кои им користат на вработените, обезбедуваат вредност за клиентите и позитивно влијаат на општеството.



    Импликации на AI TRiSM



    Пошироките импликации на AI TRiSM може да вклучуваат: 




    • Како што AI TRiSM станува сè поважен, компаниите ќе треба да ангажираат повеќе квалификувани работници кои знаат во оваа област, како што се аналитичари за безбедност на ВИ, менаџери за ризик и етичари.

    • Нови етички и морални размислувања, како што се потребата за транспарентност, правичност и отчетност при користењето на системи за вештачка интелигенција.

    • Иновации зголемени со вештачка интелигенција кои се сигурни, доверливи и сигурни.

    • Зголемен притисок за владина регулатива за заштита на поединци и организации од ризици поврзани со системите за вештачка интелигенција.

    • Поголем фокус на обезбедување дека системите за вештачка интелигенција не се пристрасни кон одредени групи или поединци.

    • Нови можности за оние со вештини за вештачка интелигенција и потенцијално разместување на оние без нив.

    • Зголемена потрошувачка на енергија и капацитет за складирање податоци за постојано ажурирани податоци за обука.

    • Повеќе компании се казнети затоа што не ги усвоиле глобалните стандарди за одговорна вештачка интелигенција.



    Прашања што треба да се разгледаат




    • Ако работите во вештачка интелигенција, како вашата компанија ги тренира своите алгоритми да бидат етички?

    • Кои се предизвиците на градењето системи за одговорна вештачка интелигенција?