Предвзятость искусственного интеллекта: машины не так объективны, как мы надеялись

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

Предвзятость искусственного интеллекта: машины не так объективны, как мы надеялись

Предвзятость искусственного интеллекта: машины не так объективны, как мы надеялись

Текст подзаголовка
Все согласны с тем, что ИИ должен быть беспристрастным, но устранение предубеждений оказывается проблематичным.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 8 февраля 2022

    Сводка статистики

    Хотя технологии, основанные на данных, обещают способствовать построению справедливого общества, они часто отражают те же предубеждения, которые питают люди, что приводит к потенциальной несправедливости. Например, предвзятость в системах искусственного интеллекта (ИИ) может непреднамеренно усугубить вредные стереотипы. Тем не менее, предпринимаются усилия, чтобы сделать системы ИИ более справедливыми, хотя это поднимает сложные вопросы о балансе между полезностью и справедливостью, а также о необходимости продуманного регулирования и разнообразия в технических командах.

    Общий контекст предвзятости ИИ

    Есть надежда, что технологии, основанные на данных, помогут человечеству создать общество, в котором справедливость является нормой для всех. Однако нынешняя реальность рисует иную картину. Многие предубеждения людей, которые в прошлом приводили к несправедливости, теперь отражаются в алгоритмах, которые управляют нашим цифровым миром. Эти предубеждения в системах искусственного интеллекта часто возникают из-за предубеждений людей, разрабатывающих эти системы, и эти предубеждения часто просачиваются в их работу.

    Возьмем, к примеру, проект 2012 года, известный как ImageNet, который стремился обеспечить краудсорсинг маркировки изображений для обучения систем машинного обучения. Большая нейронная сеть, обученная на этих данных, впоследствии смогла идентифицировать объекты с впечатляющей точностью. Однако при ближайшем рассмотрении исследователи обнаружили предвзятость, скрытую в данных ImageNet. В одном конкретном случае алгоритм, обученный на этих данных, был склонен к предположению, что все программисты — белые мужчины.

    Эта предвзятость потенциально может привести к тому, что женщины будут упущены из виду на таких должностях, когда процесс найма автоматизирован. Предвзятости нашли свое отражение в наборах данных, потому что человек, добавлявший ярлыки к изображениям «женщины», включал дополнительный ярлык, состоящий из уничижительного термина. Этот пример иллюстрирует, как предубеждения, преднамеренные или непреднамеренные, могут проникнуть даже в самые сложные системы искусственного интеллекта, потенциально закрепляя вредные стереотипы и неравенство.

    Разрушительное воздействие 

    Усилия по устранению предвзятости в данных и алгоритмах были инициированы исследователями из различных государственных и частных организаций. Например, в случае с проектом ImageNet краудсорсинг использовался для выявления и устранения терминов в маркировке, которые бросают уничижительный свет на определенные изображения. Эти меры продемонстрировали, что действительно возможно перенастроить системы ИИ, чтобы сделать их более справедливыми.

    Однако некоторые эксперты утверждают, что устранение предвзятости потенциально может сделать набор данных менее эффективным, особенно когда имеют место множественные предвзятости. В наборе данных, лишенном определенных предубеждений, может не хватать достаточной информации для эффективного использования. Это поднимает вопрос о том, как будет выглядеть по-настоящему разнообразный набор изображений и как его можно использовать без ущерба для его полезности.

    Эта тенденция подчеркивает необходимость вдумчивого подхода к использованию искусственного интеллекта и технологий, основанных на данных. Для компаний это может означать инвестиции в инструменты обнаружения предвзятости и поощрение разнообразия в технических командах. Для правительств это может включать введение правил, обеспечивающих справедливое использование ИИ. 

    Последствия предвзятости ИИ

    Более широкие последствия предвзятости ИИ могут включать:

    • Организации проявляют инициативу в обеспечении справедливости и недискриминации, поскольку они используют ИИ для повышения производительности и производительности. 
    • Наличие специалиста по этике ИИ в командах разработчиков для выявления и снижения этических рисков на ранних этапах проекта. 
    • Разработка продуктов ИИ с учетом таких факторов разнообразия, как пол, раса, класс и культура.
    • Привлечение представителей различных групп, которые будут использовать продукт искусственного интеллекта компании, для его тестирования перед выпуском.
    • Доступ к различным общественным услугам ограничен для определенных представителей общественности.
    • Некоторые представители общественности не могут получить доступ к определенным возможностям трудоустройства или претендовать на них.
    • Правоохранительные органы и специалисты несправедливо преследуют одних членов общества больше, чем других. 

    Вопросы для рассмотрения

    • Вы с оптимизмом смотрите на то, что автоматизированное принятие решений будет справедливым в будущем?
    • Что в принятии решений ИИ заставляет вас нервничать больше всего?

    Ссылки на статистику

    Для этого понимания использовались следующие популярные и институциональные ссылки: