AI TRiSM: гарантия того, что ИИ останется этичным

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

AI TRiSM: гарантия того, что ИИ останется этичным

AI TRiSM: гарантия того, что ИИ останется этичным

Текст подзаголовка
Компаниям настоятельно рекомендуется создать стандарты и политику, которые четко определяют границы искусственного интеллекта.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 20 октября 2023

    Сводка статистики

    В 2022 году исследовательская фирма Gartner представила AI TRiSM, что означает «Управление доверием, рисками и безопасностью ИИ», чтобы обеспечить управление и надежность моделей ИИ. Структура состоит из пяти столпов: объяснимость, операции с моделями, обнаружение аномалий данных, устойчивость к состязательным атакам и защита данных. В отчете подчеркивается, что плохое управление рисками ИИ может привести к значительным потерям и нарушениям безопасности. Для внедрения AI TRiSM требуется межфункциональная команда из юристов, специалистов по соблюдению нормативных требований, ИТ и аналитики данных. Эта структура направлена ​​на создание культуры «ответственного ИИ» с упором на этические и юридические проблемы и, вероятно, повлияет на тенденции найма персонала, правительственные постановления и этические соображения в области ИИ.

    Контекст AI TRiSM

    По данным Gartner, AI TriSM состоит из пяти столпов: объяснимость, модельные операции (ModelOps), обнаружение аномалий данных, устойчивость к состязательным атакам и защита данных. По прогнозам Gartner, к 50 году организации, реализующие эти принципы, станут свидетелями 2026-процентного повышения производительности своих моделей искусственного интеллекта с точки зрения внедрения, бизнес-целей и признания пользователями. Кроме того, машины на базе искусственного интеллекта будут составлять 20 процентов рабочей силы в мире. и обеспечить 40 процентов общей экономической производительности к 2028 году.

    Результаты исследования Gartner показывают, что многие организации внедрили сотни или тысячи моделей искусственного интеллекта, которые ИТ-руководители не могут понять или интерпретировать. Организации, которые неадекватно управляют рисками, связанными с ИИ, значительно более склонны к неблагоприятным последствиям и нарушениям. Модели могут работать не так, как предполагалось, что приводит к нарушениям безопасности и конфиденциальности, а также финансовому, индивидуальному и репутационному ущербу. Неточная реализация ИИ также может привести к принятию организациями ошибочных бизнес-решений.

    Для успешного внедрения AI TRiSM необходима межфункциональная команда юристов, специалистов по соблюдению нормативных требований, безопасности, ИТ и аналитики данных. Создание специальной команды или целевой группы с надлежащим представительством каждой области бизнеса, участвующей в проекте ИИ, также даст оптимальные результаты. Также важно убедиться, что каждый член команды четко понимает свои роли и обязанности, а также цели и задачи инициативы AI TRiSM.

    Разрушительное воздействие

    Чтобы сделать ИИ безопасным, Gartner рекомендует несколько жизненно важных шагов. Во-первых, организациям необходимо осознать потенциальные риски, связанные с ИИ, и способы их смягчения. Эти усилия требуют комплексной оценки рисков, которая учитывает не только саму технологию, но и ее влияние на людей, процессы и окружающую среду.

    Во-вторых, организациям необходимо инвестировать в управление ИИ, которое включает политики, процедуры и средства контроля для управления рисками ИИ. Эта стратегия включает в себя обеспечение того, чтобы системы искусственного интеллекта были прозрачными, объяснимыми, подотчетными и соответствовали соответствующим законам и правилам. Кроме того, постоянный мониторинг и аудит моделей ИИ имеют решающее значение для выявления и смягчения любых потенциальных рисков, которые могут возникнуть с течением времени. Наконец, организациям необходимо развивать культуру безопасности ИИ, повышая осведомленность, образование и обучение среди сотрудников и заинтересованных сторон. Эти шаги включают обучение этичному использованию ИИ, рискам, связанным с ИИ, а также тому, как выявлять проблемы или проблемы и сообщать о них. 

    Эти усилия, вероятно, приведут к тому, что больше компаний создадут свои отделы ответственного ИИ. Эта новая система управления устраняет юридические и этические препятствия, связанные с ИИ, документируя подход организаций к ним. Эта структура и связанные с ней инициативы направлены на устранение двусмысленности и предотвращение непредвиденных негативных последствий. Принципы концепции ответственного ИИ направлены на проектирование, разработку и использование ИИ таким образом, чтобы приносить пользу сотрудникам, приносить пользу клиентам и положительно влиять на общество.

    Последствия AI TRiSM

    Более широкие последствия AI TRiSM могут включать: 

    • Поскольку AI TRiSM становится все более важным, компаниям необходимо будет нанимать более квалифицированных работников, знающих эту область, таких как аналитики безопасности AI, менеджеры по рискам и специалисты по этике.
    • Новые этические и моральные соображения, такие как необходимость прозрачности, справедливости и подотчетности при использовании систем искусственного интеллекта.
    • Инновации, дополненные искусственным интеллектом, безопасные, заслуживающие доверия и надежные.
    • Повышенное давление на государственное регулирование с целью защиты отдельных лиц и организаций от рисков, связанных с системами искусственного интеллекта.
    • Больше внимания уделяется обеспечению того, чтобы системы ИИ не были предвзяты в отношении определенных групп или отдельных лиц.
    • Новые возможности для тех, кто обладает навыками ИИ и потенциально вытесняют тех, у кого их нет.
    • Повышенное энергопотребление и емкость хранилища данных для постоянно обновляемых данных тренировок.
    • Все больше компаний штрафуют за непринятие глобальных стандартов ответственного ИИ.

    Вопросы для рассмотрения

    • Если вы работаете в области искусственного интеллекта, как ваша компания обучает свои алгоритмы этичному принципу?
    • Каковы проблемы создания ответственных систем искусственного интеллекта?

    Ссылки на статистику

    Для этого понимания использовались следующие популярные и институциональные ссылки: