인공 지능 편향: 기계는 우리가 기대한 만큼 객관적이지 않습니다

이미지 크레딧:
이미지 크레딧
iStock

인공 지능 편향: 기계는 우리가 기대한 만큼 객관적이지 않습니다

인공 지능 편향: 기계는 우리가 기대한 만큼 객관적이지 않습니다

소제목 텍스트
AI가 편향되지 않아야 한다는 데 모두 동의하지만 편향을 제거하는 것은 문제가 있음이 증명되고 있습니다.
    • 저자:
    • 저자 이름
      퀀텀런 예측
    • 2024년 2월 27일

    인사이트 요약

    데이터 기반 기술은 공정한 사회를 조성할 수 있다는 약속을 가지고 있지만 종종 인간이 품고 있는 것과 동일한 편견을 반영하여 잠재적인 불의로 이어집니다. 예를 들어, 인공 지능(AI) 시스템의 편견은 의도치 않게 해로운 고정관념을 악화시킬 수 있습니다. 그러나 AI 시스템을 보다 공평하게 만들기 위한 노력이 진행 중이지만 이로 인해 유용성과 공정성 사이의 균형, 기술 팀의 신중한 규제 및 다양성에 대한 필요성에 대한 복잡한 질문이 제기됩니다.

    AI 편향 일반 컨텍스트

    희망은 데이터로 구동되는 기술이 인류가 모두에게 공정함이 표준이 되는 사회를 구축하는 데 도움이 될 것이라는 것입니다. 그러나 현재의 현실은 다른 그림을 그리고 있다. 과거에 불의로 이어졌던 인간의 많은 편견이 이제 디지털 세계를 지배하는 알고리즘에 반영되고 있습니다. AI 시스템의 이러한 편향은 종종 이러한 시스템을 개발하는 개인의 편견에서 비롯되며 이러한 편향은 종종 작업에 스며듭니다.

    예를 들어 2012년에 ImageNet으로 알려진 프로젝트를 살펴보겠습니다. 이 프로젝트는 기계 학습 시스템 교육을 위해 이미지 라벨링을 크라우드소싱하려고 했습니다. 이 데이터에 대해 훈련된 대규모 신경망은 이후 인상적인 정확도로 물체를 식별할 수 있었습니다. 그러나 면밀히 조사한 결과 연구원들은 ImageNet 데이터 내에 숨겨진 편향을 발견했습니다. 특정 사례에서 이 데이터에 대해 훈련된 알고리즘은 모든 소프트웨어 프로그래머가 백인이라는 가정으로 편향되었습니다.

    이러한 편견은 고용 프로세스가 자동화될 때 잠재적으로 여성이 그러한 역할을 간과하는 결과를 초래할 수 있습니다. "여성"의 이미지에 레이블을 추가하는 개인이 경멸적인 용어로 구성된 추가 레이블을 포함했기 때문에 편견이 데이터 세트에 영향을 미쳤습니다. 이 예는 의도적이든 비의도적이든 편견이 어떻게 가장 정교한 AI 시스템에 침투하여 잠재적으로 유해한 고정관념과 불평등을 영속화할 수 있는지 보여줍니다.

    파괴적 영향 

    데이터 및 알고리즘의 편향을 해결하기 위한 노력은 다양한 공공 및 민간 조직의 연구원들에 의해 시작되었습니다. 예를 들어 ImageNet 프로젝트의 경우 크라우드소싱을 사용하여 특정 이미지에 경멸적인 빛을 비추는 라벨 용어를 식별하고 제거했습니다. 이러한 조치는 AI 시스템을 보다 공평하게 재구성하는 것이 실제로 가능하다는 것을 보여주었습니다.

    그러나 일부 전문가들은 편향을 제거하면 특히 여러 편향이 작용할 때 잠재적으로 데이터 세트의 효율성이 떨어질 수 있다고 주장합니다. 특정 편향이 제거된 데이터 세트는 효과적인 사용을 위한 충분한 정보가 부족할 수 있습니다. 진정으로 다양한 이미지 데이터 세트가 어떤 모습일지, 그리고 유용성을 손상시키지 않고 어떻게 사용할 수 있는지에 대한 질문을 제기합니다.

    이러한 추세는 AI 및 데이터 기반 기술 사용에 대한 사려 깊은 접근 방식의 필요성을 강조합니다. 기업의 경우 이는 편향 감지 도구에 투자하고 기술 팀의 다양성을 촉진하는 것을 의미할 수 있습니다. 정부의 경우 AI의 공정한 사용을 보장하기 위한 규정을 구현하는 것이 포함될 수 있습니다. 

    AI 편향의 의미

    AI 편향의 더 넓은 의미는 다음과 같습니다.

    • 조직은 AI를 활용하여 생산성과 성과를 개선할 때 공정성과 비차별을 보장하는 데 적극적입니다. 
    • 개발 팀에 AI 윤리학자를 두어 프로젝트 초기에 윤리적 위험을 감지하고 완화합니다. 
    • 성별, 인종, 계층, 문화와 같은 다양성 요소를 명확하게 염두에 두고 AI 제품을 설계합니다.
    • 회사의 AI 제품이 출시되기 전에 테스트하기 위해 사용할 다양한 그룹의 대표자를 확보합니다.
    • 특정 대중의 다양한 공공 서비스가 제한됩니다.
    • 특정 직업 기회에 접근할 수 없거나 자격이 없는 일반 대중.
    • 법 집행 기관 및 전문가는 사회의 특정 구성원을 다른 구성원보다 더 많이 부당하게 대상으로 합니다. 

    고려해야 할 질문

    • 자동화된 의사 결정이 미래에 공정할 것이라고 낙관하십니까?
    • AI 의사 결정에 대해 가장 긴장되는 것은 무엇입니까?

    통찰력 참조

    이 통찰력을 위해 다음과 같은 인기 있는 기관 링크를 참조했습니다.