Franken Algoritmaları: Algoritmalar haydut oldu

GÖRÜNTÜ KREDİSİ:
Resim kredi
iStock

Franken Algoritmaları: Algoritmalar haydut oldu

Franken Algoritmaları: Algoritmalar haydut oldu

Alt başlık metni
Yapay zekadaki gelişmelerle birlikte algoritmalar, insanların tahmin ettiğinden daha hızlı gelişiyor.
    • Yazar:
    • Yazar adı
      Kuantumrun Öngörüsü
    • 12 Nisan 2023

    Makine öğrenimi (ML) algoritmaları daha gelişmiş hale geldikçe, kendi başlarına büyük veri kümelerindeki kalıpları öğrenip bunlara uyum sağlayabilirler. "Özerk öğrenme" olarak bilinen bu süreç, algoritmanın karar vermek için kendi kodunu veya kurallarını oluşturmasıyla sonuçlanabilir. Bununla ilgili sorun, algoritma tarafından üretilen kodun insanlar tarafından anlaşılmasının zor veya imkansız olabilmesidir, bu da önyargıları tam olarak belirlemeyi zorlaştırır. 

    Franken-Algoritmalar bağlamı

    Franken Algoritmaları, insanların artık onları çözemeyeceği kadar karmaşık ve iç içe geçmiş algoritmalara (bilgisayarların verileri işlerken ve komutlara yanıt verirken izlediği kurallar) atıfta bulunur. Terim, Mary Shelley'nin çılgın bilim adamı Dr. Frankenstein tarafından yaratılan bir "canavar" hakkındaki bilim kurgusuna bir selam niteliğindedir. Algoritmalar ve kodlar büyük teknolojinin yapı taşları olsa ve Facebook ile Google'ın şu anda oldukları etkili şirketler olmalarını sağlasa da, teknoloji hakkında insanların bilmediği çok şey var. 

    Programcılar kodlar oluşturduğunda ve bunları yazılım aracılığıyla çalıştırdığında, makine öğrenimi bilgisayarların kalıpları anlamasını ve tahmin etmesini sağlar. Büyük teknoloji, insan duyguları ve öngörülemezlik onları etkilemediği için algoritmaların objektif olduğunu iddia ederken, bu algoritmalar gelişebilir ve kendi kurallarını yazarak feci sonuçlara yol açabilir. Bu algoritmalar tarafından üretilen kod genellikle karmaşık ve anlaşılmaz olduğundan, araştırmacıların veya uygulayıcıların algoritmanın kararlarını yorumlamasını veya algoritmanın karar verme sürecinde mevcut olabilecek herhangi bir önyargıyı belirlemesini zorlaştırır. Bu engel, karar vermek için bu algoritmalara güvenen işletmeler için, bu kararların arkasındaki mantığı anlayamayabilecekleri veya açıklayamayacakları için önemli zorluklar yaratabilir.

    Yıkıcı etki

    Franken Algoritmaları hile yaptığında, bu bir ölüm kalım meselesi olabilir. Bir örnek, 2018'de Arizona'da sürücüsüz bir arabanın bisiklete binen bir kadına çarparak onu öldürmesiydi. Arabanın algoritmaları, onu bir insan olarak doğru bir şekilde tanımlayamadı. Uzmanlar kazanın temel nedeni konusunda kararsız kaldılar: Araba yanlış mı programlandı ve algoritma kendi iyiliği için fazla mı karmaşık hale geldi? Bununla birlikte, programcıların hemfikir olabileceği şey, yazılım şirketleri için bir gözetim sistemi - bir etik kuralları - olması gerektiğidir. 

    Bununla birlikte, bu etik kural, büyük teknolojiden bir miktar geri tepme ile birlikte gelir çünkü onlar veri ve algoritma satma işindedirler ve düzenlenmeyi veya şeffaf olmaları gerekliliğini karşılayamazlar. Ek olarak, büyük teknoloji çalışanları için endişe yaratan yakın tarihli bir gelişme, Google'ın ABD Savunma Bakanlığı ile otonom dronlar gibi algoritmaları askeri teknolojiye dahil etmek için yaptığı ortaklık gibi, algoritmaların ordu içinde artan kullanımıdır. Bu uygulama, bazı çalışanların istifa etmesine ve uzmanların, algoritmaların ölüm makineleri olarak kullanılamayacak kadar öngörülemez olduğu yönündeki endişelerini dile getirmesine yol açtı. 

    Başka bir endişe de, Franken Algoritmalarının üzerinde eğitildikleri veri kümeleri nedeniyle önyargıları devam ettirebilmesi ve hatta artırabilmesidir. Bu süreç, ayrımcılık, eşitsizlik ve haksız tutuklamalar dahil olmak üzere çeşitli toplumsal sorunlara yol açabilir. Artan bu riskler nedeniyle birçok teknoloji şirketi, algoritmalarını nasıl geliştirdikleri, kullandıkları ve izledikleri konusunda şeffaf olmak için etik yapay zeka yönergelerini yayınlamaya başlıyor.

    Franken Algoritmaları için daha geniş çıkarımlar

    Franken-Algoritmaları için potansiyel çıkarımlar şunları içerebilir:

    • İnsan gözetimi olmadan kararlar alabilen ve harekete geçebilen otonom sistemlerin geliştirilmesi, hesap verebilirlik ve güvenlikle ilgili endişeleri artırıyor. Bununla birlikte, bu tür algoritmalar, çoğu endüstride insan emeğini otomatikleştirebilen yazılım ve robotik geliştirme maliyetlerini azaltabilir. 
    • Algoritmaların askeri teknolojiyi nasıl otomatikleştirebileceği ve otonom silahları ve araçları nasıl destekleyebileceği konusunda daha fazla inceleme.
    • Hükümetler ve endüstri liderleri için bir algoritma etik kuralları ve düzenlemeleri uygulamak için artan baskı.
    • Düşük gelirli topluluklar veya azınlık nüfusları gibi belirli demografik grupları orantısız bir şekilde etkileyen Franken Algoritmaları.
    • Franken-Algoritmaları, işe alma ve borç verme kararları gibi karar vermede ayrımcılığı ve önyargıyı sürdürebilir ve artırabilir.
    • Bu algoritmalar, siber suçlular tarafından sistemlerdeki, özellikle de finans kurumlarındaki zayıflıkları izlemek ve bunlardan yararlanmak için kullanılıyor.
    • Kamuoyunu etkileyebilecek ve seçimleri etkileyebilecek şekillerde üretken AI sistemlerini kullanarak pazarlama kampanyalarını otomatikleştirmek için hileli algoritmalar kullanan siyasi aktörler.

    Dikkate alınması gereken sorular

    • Algoritmaların gelecekte nasıl daha da gelişeceğini düşünüyorsunuz?
    • Hükümetler ve şirketler Franken Algoritmalarını kontrol etmek için ne yapabilir?

    Analiz referansları

    Bu içgörü için aşağıdaki popüler ve kurumsal bağlantılara başvurulmuştur: