Sorunlu eğitim verileri: Yapay zekaya önyargılı veriler öğretildiğinde

GÖRÜNTÜ KREDİSİ:
Resim kredi
iStock

Sorunlu eğitim verileri: Yapay zekaya önyargılı veriler öğretildiğinde

Sorunlu eğitim verileri: Yapay zekaya önyargılı veriler öğretildiğinde

Alt başlık metni
Yapay zeka sistemleri bazen nasıl davrandığını ve karar verdiğini etkileyebilecek öznel verilerle tanıtılır.
    • Yazar:
    • Yazar adı
      Kuantumrun Öngörüsü
    • 14 Ekim 2022

    Analiz özeti

    Öğrendiğimiz ve içselleştirdiğimiz şey biziz; bu özdeyiş yapay zeka (AI) için de geçerlidir. Eksik, taraflı ve etik olmayan verilerle beslenen makine öğrenimi (ML) modelleri, nihayetinde sorunlu kararlar ve önerilerde bulunacaktır. Bu güçlü algoritmalar, araştırmacılar dikkatli olmazsa, kullanıcıların ahlakını ve algılarını etkileyebilir.

    Sorunlu eğitim verileri bağlamı

    2010'lu yıllardan bu yana araştırma ekipleri, uygun olmayan içeriğe sahip veya etik olmayan şekilde toplanan eğitim veri setlerini kullanma konusunda inceleniyor. Örneğin 2016 yılında Microsoft'un MS-Celeb-1M veri tabanı 10 farklı ünlüye ait 100,000 milyon görsel içeriyordu. Ancak daha ayrıntılı bir incelemenin ardından muhabirler, birçok fotoğrafın, sahibinin izni veya bilgisi olmadan çeşitli web sitelerinden sıradan insanlara ait olduğunu keşfetti.

    Bu farkındalığa rağmen veri seti, Facebook ve eyalet polisiyle bağlantısı olan Çinli yüz tanıma şirketi SenseTime gibi büyük şirketler tarafından kullanılmaya devam etti. Benzer şekilde Duke Üniversitesi kampüsünde (DukeMTMC) yürüyen insanların resimlerini içeren bir veri seti de onay toplamadı. Sonunda her iki veri kümesi de kaldırıldı. 

    Sorunlu eğitim verilerinin zarar verici etkilerini vurgulamak için, Massachusetts Teknoloji Enstitüsü'ndeki (MIT) araştırmacılar, Norman adında bir yapay zeka yarattılar ve bu yapay zeka, grafik şiddeti vurgulayan bir alt dizinden resim yazısı yapmayı öğrettiler. Ekip daha sonra Norman'ı geleneksel veriler kullanılarak eğitilmiş bir sinir ağının karşısına yerleştirdi. Araştırmacılar her iki sisteme de Rorschach mürekkep lekeleri sağladı ve AI'lardan gördüklerini açıklamalarını istedi. Sonuçlar çarpıcıydı: Standart sinir ağının "bir beyzbol eldiveninin siyah beyaz bir fotoğrafını" gördüğü yerde, Norman "güpegündüz makineli tüfekle öldürülen bir adam" gözlemledi. Deney, AI'nın otomatik olarak önyargılı olmadığını, ancak bu veri giriş yöntemlerinin ve yaratıcılarının motivasyonlarının bir AI'nın davranışını önemli ölçüde etkileyebileceğini gösterdi.

    Yıkıcı etki

    2021 yılında araştırma kuruluşu Allen Yapay Zeka Enstitüsü, her türlü etik sorunun yanıtlarına algoritmik olarak yanıtlar üreten bir makine öğrenimi yazılımı olan Ask Delphi'yi yarattı. Projenin arkasındaki araştırmacılar, yapay zekanın giderek daha güçlü ve tanıdık hale geldiğini, dolayısıyla bilim adamlarının bu makine öğrenimi sistemleri etiğini öğretmesi gerektiğini belirtti. Unicorn ML modeli Delphi'nin temelidir. Bir metin dizesinin en olası sonunun seçilmesi gibi "sağduyulu" akıl yürütmeyi gerçekleştirmek üzere formüle edilmiştir. 

    Ayrıca araştırmacılar 'Commonsense Norm Bank'ı kullandılar. Bu banka, Reddit gibi yerlerden insanların etik değerlendirmelerine ilişkin 1.7 milyon örnekten oluşuyor. Sonuç olarak Delphi'nin çıktısı karışıktı. Delphi bazı soruları makul bir şekilde yanıtlarken (örneğin, kadın-erkek eşitliği), bazı konularda ise Delphi açıkça saldırgandı (örneğin, soykırım insanları mutlu ettiği sürece kabul edilebilir).

    Ancak Delphi yapay zekası deneyimlerinden ders alıyor ve yanıtlarını geri bildirimlere göre güncelliyor gibi görünüyor. Bazı uzmanlar, modelin geliştirme aşamasında olduğunu ve hatalı yanıtlara yatkın olduğunu göz önünde bulundurarak araştırmanın halka açık ve açık kullanımından rahatsız. Ask Delphi ilk kez piyasaya sürüldüğünde, Illinois Tech'de cinsiyet, emek ve bilgi işlem tarihi konularında uzmanlaşmış Tarih profesörü Mar Hicks, Delphi'nin hemen son derece etik olmayan yanıtlar verdiğini ve bazılarının bu soruyu yanıtladığını göz önünde bulundurarak, insanları bu hizmeti kullanmaya davet etmenin araştırmacıların ihmalkarlığı olduğunu söyledi. tamamen saçmalık. 

    2023 olarak, Dünyanın geri kalanı Yapay zeka görüntü oluşturucularındaki önyargı üzerine bir çalışma yürüttü. Araştırmacılar Midjourney'i kullanarak oluşturulan görüntülerin mevcut stereotipleri doğruladığını keşfetti. Ayrıca OpenAI, DALL-E 2 görüntü oluşturma modelinin eğitim verilerine filtreler uyguladığında, istemeden de olsa cinsiyetle ilgili önyargıları yoğunlaştırdı.

    Sorunlu eğitim verilerinin etkileri

    Sorunlu eğitim verilerinin daha geniş sonuçları şunları içerebilir: 

    • Araştırma projelerinde, hizmetlerde ve program geliştirmede güçlendirilmiş önyargılar. Sorunlu eğitim verileri, özellikle kolluk kuvvetleri ve bankacılık kurumlarında kullanılıyorsa (örneğin, azınlık gruplarını olumsuz bir şekilde hedef alıyorsa) endişe vericidir.
    • Eğitim verilerinin büyümesi ve çeşitliliğine artan yatırım ve gelişme. 
    • Daha fazla hükümet, şirketlerin çeşitli ticari girişimler için eğitim verilerini geliştirme, satma ve kullanma şeklini sınırlamak için düzenlemeleri artırıyor.
    • Yapay zeka sistemleri tarafından desteklenen projelerin etik yönergelere uymasını sağlamak için etik departmanları kuran daha fazla işletme.
    • Yapay zekanın sağlık hizmetlerinde kullanımına ilişkin geliştirilmiş inceleme, daha sıkı veri yönetimine yol açarak hasta mahremiyetini ve etik yapay zeka uygulamasını garanti altına alıyor.
    • Yapay zeka okuryazarlığını geliştirmek, işgücünü yapay zekanın hakim olduğu bir gelecek için becerilerle donatmak için kamu ve özel sektör iş birliğinin artırılması.
    • Yapay zeka şeffaflık araçlarına olan talebin artması, şirketlerin tüketici anlayışı ve güveni için yapay zeka sistemlerinde açıklanabilirliğe öncelik vermesine neden oluyor.

    Dikkate alınması gereken sorular

    • Kuruluşlar sorunlu eğitim verilerini kullanmaktan nasıl kaçınabilir?
    • Etik olmayan eğitim verilerinin diğer olası sonuçları nelerdir?