AI hizalaması: Eşleşen yapay zeka hedefleri, insani değerlerle eşleşir

GÖRÜNTÜ KREDİSİ:
Resim kredi
iStock

AI hizalaması: Eşleşen yapay zeka hedefleri, insani değerlerle eşleşir

AI hizalaması: Eşleşen yapay zeka hedefleri, insani değerlerle eşleşir

Alt başlık metni
Bazı araştırmacılar, yapay zekanın topluma zarar vermemesini sağlamak için önlemlerin alınması gerektiğine inanıyor.
    • Yazar:
    • Yazar adı
      Kuantumrun Öngörüsü
    • Ocak 25, 2023

    Yapay zeka (AI) uyumu, bir AI sisteminin hedeflerinin insani değerlerle eşleştiği zamandır. OpenAI, DeepMind ve Anthropic gibi şirketlerin tek odak noktası bunun olabileceği farklı senaryolar için korkulukları incelemek olan araştırmacı ekipleri var.

    AI hizalama bağlamı

    2021 Cornell Üniversitesi araştırmasına göre, birkaç çalışma, algoritmalar tarafından oluşturulan araçların veya modellerin, üzerinde eğitildikleri verilerden kaynaklanan önyargı sergilediğini göstermiştir. Örneğin, doğal dil işlemede (NLP), sınırlı veri setleriyle eğitilen seçilmiş NLP modellerinin, kadınlara yönelik zararlı toplumsal cinsiyet kalıp yargılarına dayanan tahminler yaptığı belgelenmiştir. Benzer şekilde, diğer araştırmalar, kurcalanmış veri seti üzerinde eğitilen algoritmaların, özellikle polislik alanında, ırksal olarak önyargılı önerilerle sonuçlandığını buldu.

    Birden çok dezavantajdan muzdarip azınlıklar veya gruplar için makine öğrenimi sistemlerinin daha kötü sonuçlar verdiğine dair pek çok örnek var. Özellikle, otomatik yüz analizi ve sağlık hizmeti teşhisleri genellikle kadınlar ve beyaz olmayan insanlar için pek iyi çalışmaz. Duygu yerine gerçeklere ve mantığa dayanması gereken kritik sistemler, sağlık veya eğitim tahsisi gibi bağlamlarda kullanıldığında, bu tavsiyelerin arkasındaki mantığın tespit edilmesini zorlaştırarak daha fazla zarar verebilir.

    Sonuç olarak teknoloji firmaları, algoritmaları adil ve insancıl tutmaya odaklanmak için yapay zeka hizalama ekipleri oluşturuyor. Araştırma, gelişmiş yapay zeka sistemlerinin yönünü ve ayrıca yapay zeka yetenekleri arttıkça karşılaşabileceğimiz zorlukları anlamak için çok önemlidir.

    Yıkıcı etki

    OpenAI'de (2021) AI hizalama başkanı Jan Leike'ye göre, AI sistemlerinin yalnızca 2010'larda yetenekli hale geldiği göz önüne alındığında, AI hizalama araştırmalarının çoğunun teori ağırlıklı olması anlaşılabilir. Son derece güçlü AI sistemleri hizalandığında, insanların karşılaştığı zorluklardan biri, bu makinelerin etik açıdan mantıklı olup olmadıklarını incelemek ve değerlendirmek için çok karmaşık çözümler üretebilmesidir.

    Leike, bu sorunu çözmek için yinelemeli bir ödül modelleme (RRM) stratejisi tasarladı. RRM ile, bir insanın daha karmaşık bir yapay zekanın ne kadar iyi performans gösterdiğini değerlendirmesine yardımcı olmak için birkaç "yardımcı" yapay zeka öğretilir. "Uyumlu MVP" olarak adlandırdığı bir şey yaratma olasılığı konusunda iyimser. Başlangıç ​​açısından, bir MVP (veya minimum geçerli ürün), bir şirketin bir fikri test etmek için oluşturabileceği en basit olası üründür. Umut, bir gün yapay zekanın, yapay zekayı araştırmadaki insan performansını ve aynı zamanda işlevsel olurken değerlerle uyumunu eşleştirmesidir.

    AI uyumuna olan ilginin artması net bir pozitif olsa da, alandaki birçok analist, önde gelen AI laboratuvarlarındaki "etik" çalışmalarının çoğunun, teknoloji şirketlerinin iyi görünmesini sağlamak ve olumsuz tanıtımdan kaçınmak için tasarlanmış halkla ilişkiler olduğunu düşünüyor. Bu kişiler, etik geliştirme uygulamalarının yakın zamanda bu şirketler için bir öncelik haline gelmesini beklemiyorlar.

    Bu gözlemler, ahlaki ve teknik sorgulamanın nispeten yeni bir alanı olduğundan, değer hizalama çabaları için disiplinler arası yaklaşımların önemini vurgulamaktadır. Farklı bilgi dalları kapsayıcı bir araştırma gündeminin parçası olmalıdır. Bu girişim ayrıca, yapay zeka sistemleri daha gelişmiş hale gelse bile teknoloji uzmanlarının ve politika yapıcıların sosyal bağlamlarının ve paydaşlarının farkında olmaları gerektiğine işaret ediyor.

    AI hizalamasının sonuçları

    AI hizalamasının daha geniş etkileri şunları içerebilir: 

    • Projeleri denetlemek ve etik AI yönergelerini yerine getirmek için çeşitli etik kurulları işe alan yapay zeka laboratuvarları. 
    • Hükümetler, şirketlerin sorumlu yapay zeka çerçevelerini sunmalarını ve yapay zeka projelerini nasıl daha fazla geliştirmeyi planladıklarını zorunlu kılan yasalar çıkarıyor.
    • Algoritmaların işe alım, kamu gözetimi ve kolluk kuvvetlerinin kullanımına ilişkin artan tartışmalar.
    • Etik ve kurumsal hedefler arasındaki çıkar çatışmaları nedeniyle araştırmacılar büyük yapay zeka laboratuvarlarından kovuluyor.
    • Hem inanılmaz derecede güçlü hem de potansiyel olarak insan haklarını ihlal edebilecek gelişmiş yapay zeka sistemlerini düzenlemeleri için hükümetler için daha fazla baskı.

    Yorum yapılacak sorular

    • Firmalar oluşturdukları yapay zeka sistemlerinden nasıl sorumlu tutulabilir?
    • AI yanlış hizalaması varsa diğer potansiyel tehlikeler nelerdir?

    Analiz referansları

    Bu içgörü için aşağıdaki popüler ve kurumsal bağlantılara başvurulmuştur: