İnsanlar Yapay Süper Zekaya karşı nasıl savunma yapacak: Yapay zekanın geleceği P5

GÖRÜNTÜ KREDİSİ: Kuantumrun

İnsanlar Yapay Süper Zekaya karşı nasıl savunma yapacak: Yapay zekanın geleceği P5

    Yıl MÖ 65,000 ve Thylacoleo, sen ve senin türün eski Avustralya'nın büyük avcılarıydınız. Arazide özgürce dolaştınız ve yanınızdaki araziyi işgal eden diğer yırtıcı hayvanlar ve avlarla denge içinde yaşadınız. Mevsimler değişim getirdi, ancak hayvanlar alemindeki statünüz, siz ve atalarınız hatırlayabildiğiniz sürece tartışmasız kaldı. Sonra bir gün yeni gelenler ortaya çıktı.

    Söylentiye göre dev su duvarından geldiler, ancak bu yaratıklar karada yaşamaktan daha rahat görünüyordu. Bu yaratıkları kendin görmeliydin.

    Birkaç gün sürdü, ama sonunda kıyıya ulaştınız. Gökyüzündeki ateş batıyordu, bu yaratıkları gözetlemek için mükemmel bir zaman, hatta tatlarını görmek için bir tanesini yemeyi bile deneyebilirsiniz.

    Birini fark edersin.

    İki ayağı üzerinde yürüyordu ve kürkü yoktu. Zayıf görünüyordu. Etkileyici değil. Krallıkta yarattığı korkuya değmezdi.

    Gece ışığı kovalarken dikkatli bir şekilde yaklaşmaya başlarsınız. Yaklaşıyorsun. Sonra donarsın. Yüksek sesler çınlıyor ve ardından arkasındaki ormandan dördü daha çıkıyor. Kaç tane var?

    Yaratık diğerlerini ağaç sınırına kadar takip ediyor ve siz de takip ediyorsunuz. Ve ne kadar çok yaparsanız, bu yaratıklardan daha fazlasını görene kadar daha garip sesler duyarsınız. Ormandan çıkıp kıyıdaki bir açıklığa girerken uzaktan takip ediyorsunuz. Bunlardan çok var. Ama daha da önemlisi, hepsi sakince bir ateşin etrafında oturuyorlar.

    Bu yangınları daha önce gördünüz. Sıcak mevsimde, gökyüzündeki ateş bazen karayı ziyaret eder ve tüm ormanları yakardı. Bu yaratıklar ise bir şekilde onu kontrol ediyorlardı. Ne tür yaratıklar böyle bir güce sahip olabilir?

    Mesafeye bakarsın. Dev su duvarından daha fazlası geliyor.

    Bir adım geri atıyorsun.

    Bu yaratıklar krallıktaki diğerleri gibi değil. Onlar tamamen yeni bir şey.

    Ayrılmaya ve akrabanı uyarmaya karar verdin. Sayıları çok artarsa, ne olacağını kim bilebilir.

    ***

    Thylacoleo'nun, Avustralya kıtasındaki diğer megafaunaların çoğunluğu ile birlikte, insanların gelmesinden nispeten kısa bir süre sonra neslinin tükendiğine inanılıyor. Başka hiçbir apeks memeli avcısı onun yerini almadı - bu, insanları o kategoride saymazsanız.

    Bu alegoriden kurtulmak bu dizinin bu bölümünün odak noktasıdır: Gelecekteki bir yapay süper zeka (ASI) hepimizi pile mi dönüştürecek ve sonra bizi Matrix'e bağlayacak mı yoksa insanlar bir bilim kurgunun kurbanı olmaktan kaçınmanın bir yolunu mu bulacaklar? AI kıyamet planı mı?

    Şu ana kadar serimizde Yapay Zekanın Geleceği, belirli bir AI biçiminin pozitif potansiyeli de dahil olmak üzere her türlü AI'yı keşfettik, ASI: gelecekteki zekası bizi karınca gibi gösterecek yapay bir varlık.

    Ama bu kadar zeki bir varlığın insanlardan sonsuza kadar emir almayı kabul edeceğini kim bilebilir? İşler güneye giderse ne yapacağız? Bir haydut ASI'ye karşı nasıl savunacağız?

    Bu bölümde, en azından “insan neslinin tükenme düzeyi” tehlikeleriyle ilgili olduğu için, sahte aldatmacayı ortadan kaldıracağız ve dünya hükümetlerine sunulan gerçekçi kendini savunma seçeneklerine odaklanacağız.

    Yapay bir süper zekaya yönelik tüm araştırmaları durdurabilir miyiz?

    Bir ASI'nin insanlığa karşı oluşturabileceği potansiyel riskler göz önüne alındığında, sorulması gereken ilk açık soru şudur: Yapay zekaya yönelik tüm araştırmaları durduramaz mıyız? Ya da en azından bizi bir ASI oluşturmaya tehlikeli bir şekilde yaklaştırabilecek herhangi bir araştırmayı yasaklamak mı?

    Kısa cevap: Hayır.

    Uzun cevap: Burada yer alan farklı oyunculara bakalım.

    Araştırma düzeyinde, bugün dünya çapında çok sayıda startup, şirket ve üniversiteden çok sayıda AI araştırmacısı var. Bir şirket veya ülke, AI araştırma çabalarını sınırlamaya karar verirse, başka bir yerde devam ederdi.

    Bu arada, gezegenin en değerli şirketleri, kendi özel işlerine yapay zeka sistemleri uygulayarak servetlerini kazanıyorlar. Onlardan AI araçları geliştirmelerini durdurmalarını veya sınırlamalarını istemek, onlardan gelecekteki büyümelerini durdurmalarını veya sınırlamalarını istemeye benzer. Finansal olarak, bu onların uzun vadeli işlerini tehdit ederdi. Yasal olarak, şirketlerin paydaşları için sürekli değer yaratma konusunda güvene dayalı bir sorumluluğu vardır; bu, bu değerin büyümesini sınırlayacak herhangi bir eylemin bir davaya yol açabileceği anlamına gelir. Ve herhangi bir politikacı AI araştırmasını sınırlamaya çalışırsa, o zaman bu dev şirketler fikirlerini veya meslektaşlarının fikirlerini değiştirmek için gerekli lobi ücretlerini öderlerdi.

    Savaş için, tıpkı dünyanın dört bir yanındaki teröristlerin ve özgürlük savaşçılarının daha iyi finanse edilen ordulara karşı savaşmak için gerilla taktiklerini kullanmaları gibi, daha küçük uluslar, bir takım askeri avantajlara sahip olabilecek daha büyük uluslara karşı benzer bir taktik avantaj olarak yapay zekayı kullanma teşvikine sahip olacaktır. Aynı şekilde, ABD, Rusya ve Çin'e ait olanlar gibi üst düzey ordular için askeri bir ASI inşa etmek, arka cebinizde bir nükleer silah cephanesine sahip olmakla eşdeğerdir. Başka bir deyişle, tüm ordular, gelecekte alakalı kalmak için AI'yı finanse etmeye devam edecek.

    Peki ya hükümetler? Doğrusu, bugünlerde (2018) çoğu politikacı teknolojik olarak cahil ve AI'nın ne olduğu veya gelecekteki potansiyeli hakkında çok az bilgiye sahip - bu onların şirket çıkarları tarafından manipüle edilmesini kolaylaştırıyor.

    Ve küresel düzeyde, dünya hükümetlerini 2015'i imzalamaya ikna etmenin ne kadar zor olduğunu düşünün. Paris Anlaşması iklim değişikliğiyle mücadele etmek için - ve bir kez imzalandıktan sonra, yükümlülüklerin çoğu bağlayıcı bile değildi. Sadece bu da değil, iklim değişikliği, insanların giderek daha sık ve şiddetli hava olayları yoluyla küresel olarak fiziksel olarak deneyimledikleri bir sorundur. Şimdi, yapay zekanın sınırlarını kabul etmekten bahsederken, bu büyük ölçüde görünmez olan ve halk tarafından zar zor anlaşılan bir konudur, bu yüzden yapay zekayı sınırlamak için her türlü 'Paris Anlaşması'na katılma konusunda iyi şanslar.

    Başka bir deyişle, sonunda bir ASI'ye yol açabilecek herhangi bir araştırmayı durdurmak için yapay zekayı kendi amaçları için araştıran çok fazla ilgi alanı var. 

    Yapay bir süper zekayı kafese koyabilir miyiz?

    Bir sonraki makul soru, kaçınılmaz olarak bir ASI oluşturduğumuzda bir ASI'yi kafesleyebilir veya kontrol edebilir miyiz? 

    Kısa cevap: Yine hayır.

    Uzun cevap: Teknoloji kontrol altına alınamaz.

    Birincisi, dünyadaki binlerce ila milyonlarca web geliştiricisini ve bilgisayar bilimcisini, sürekli olarak yeni yazılımları veya mevcut yazılımın yeni sürümlerini ortaya çıkaranları düşünün. Dürüst olmak gerekirse, yazılım sürümlerinin her birinin yüzde 100 hatasız olduğunu söyleyebilir miyiz? Bu böcekler, profesyonel bilgisayar korsanlarının milyonlarca kişinin kredi kartı bilgilerini veya ulusların gizli sırlarını çalmak için kullandıkları şeylerdir ve bunlar insan bilgisayar korsanlarıdır. Bir ASI için, dijital kafesinden kaçmak için bir teşviki olduğunu varsayarsak, o zaman hataları bulma ve yazılımı kırma süreci bir esinti olacaktır.

    Ancak bir AI araştırma ekibi bir ASI'yi kutulamanın bir yolunu bulmuş olsa bile, bu, sonraki 1,000 takımın da onu anlayacağı veya onu kullanmaya teşvik edileceği anlamına gelmez.

    Bir ASI oluşturmak milyarlarca dolar ve hatta on yıllar alacaktır. Bu tür para ve zamana yatırım yapan şirketler veya hükümetler, yatırımlarından önemli bir geri dönüş bekleyecektir. Ve bir ASI'nin bu tür bir getiri sağlaması için -ister borsada oynamak, isterse milyar dolarlık yeni bir ürün icat etmek veya daha büyük bir orduyla savaşmak için kazanan bir strateji planlamak olsun- dev bir veri setine ve hatta internete ücretsiz erişime ihtiyacı olacaktır. kendisi bu getirileri üretmek için.

    Ve bir ASI dünya ağlarına bir kez eriştiğinde, onu kafesine geri kapatabileceğimizin hiçbir garantisi yoktur.

    Yapay bir süper zeka iyi olmayı öğrenebilir mi?

    Şu anda, AI araştırmacıları bir ASI'nin kötüleşmesi konusunda endişelenmiyor. Tüm kötülük, AI bilimkurgu kinayesi, sadece insanların yeniden antropomorfize edilmesidir. Gelecekteki bir ASI, ne iyi ne de kötü -insan kavramları- sadece ahlak dışı olacaktır.

    O zaman doğal varsayım, bu boş etik liste verildiğinde, AI araştırmacılarının bizimkilerle uyumlu olan ilk ASI etik kodlarını programlayabilmeleri, böylece Terminatörleri üzerimize salması veya hepimizi Matrix pillerine dönüştürmemesidir.

    Ancak bu varsayım, yapay zeka araştırmacılarının aynı zamanda etik, felsefe ve psikolojide uzman olduklarına dair ikincil bir varsayımı da beraberinde getiriyor.

    Gerçekte, çoğu değil.

    Bilişsel psikolog ve yazar Steven Pinker'a göre bu gerçek, etik kodlama görevinin çeşitli şekillerde yanlış gidebileceği anlamına geliyor.

    Örneğin, en iyi niyetli AI araştırmacıları bile, bazı senaryolarda ASI'nin bir sosyopat gibi davranmasına neden olabilecek, kötü düşünülmüş etik kodları istemeden bu ASI'ye kodlayabilir.

    Benzer şekilde, bir yapay zeka araştırmacısının, araştırmacının doğuştan gelen önyargılarını içeren etik kodları programlama olasılığı da eşittir. Örneğin, bir ASI, muhafazakar ve liberal perspektiften veya Budist'e karşı Hristiyan veya İslami gelenekten türetilen etikle inşa edilmişse nasıl davranır?

    Sanırım meseleyi burada görüyorsunuz: Evrensel bir insan ahlakı seti yoktur. ASI'mizin etik bir koda göre hareket etmesini istiyorsak, nereden gelecek? Hangi kuralları dahil edip hariç tutuyoruz? Kim karar veriyor?

    Ya da diyelim ki bu AI araştırmacıları, günümüzün modern kültürel normları ve yasalarıyla mükemmel bir uyum içinde olan bir ASI oluşturdular. Daha sonra bu ASI'yi federal, eyalet/il ve belediye bürokrasilerinin daha verimli çalışmasına ve bu normları ve yasaları daha iyi uygulamasına yardımcı olmak için kullanırız (bu arada bir ASI için olası bir kullanım durumu). Peki, kültürümüz değiştiğinde ne olur?

    Bir ASI'nin Katolik Kilisesi tarafından gücünün zirvesinde Orta Çağ Avrupa'sında (1300-1400'ler) kilisenin nüfusu yönetmesine yardımcı olmak ve zamanın dini dogmasına sıkı sıkıya bağlılığı sağlamak amacıyla yaratıldığını hayal edin. Yüzyıllar sonra, kadınlar bugün sahip oldukları haklardan yararlanabilecekler mi? Azınlıklar korunacak mı? İfade özgürlüğü teşvik edilecek mi? Kilise ve devletin ayrılığı uygulanacak mı? Modern bilim?

    Başka bir deyişle, geleceği bugünün ahlak ve geleneklerine hapsetmek mi istiyoruz?

    Alternatif bir yaklaşım, kitabın ortak yazarı Colin Allen tarafından paylaşılan bir yaklaşımdır. Ahlaki Makineler: Robotlara Doğruyu Yanlıştan Öğretmek. Katı etik kuralları kodlamaya çalışmak yerine, ASI'nin ortak etik ve ahlakı, insanlarla aynı şekilde, deneyimler ve başkalarıyla etkileşimler yoluyla öğrenmesini sağlıyoruz.

    Ancak buradaki sorun, eğer AI araştırmacıları sadece bir ASI'ye mevcut kültürel ve etik normlarımızı nasıl öğreteceklerini değil, aynı zamanda ortaya çıktıklarında yeni kültürel normlara nasıl adapte olacaklarını ('dolaylı normatiflik' olarak adlandırılan bir şey) bulurlarsa, o zaman nasıl olur? bu ASI, kültürel ve etik normlara ilişkin anlayışını geliştirmeye karar verir ve tahmin edilemez hale gelir.

    Ve işte zorluk bu.

    Bir yandan, AI araştırmacıları, davranışını kontrol etmek için ASI'ye katı etik standartlar veya kurallar kodlamayı deneyebilir, ancak özensiz kodlama, kasıtsız önyargı ve bir gün modası geçebilecek toplumsal normlardan kaynaklanan öngörülemeyen sonuçların ortaya çıkması riskini taşır. Öte yandan, ASI'yi insan etiğini ve ahlakını kendi anlayışımıza eşit veya daha üstün bir şekilde anlamayı öğrenmek için eğitmeye çalışabilir ve ardından insan toplumu ilerledikçe etik ve ahlak anlayışını doğru bir şekilde geliştirebileceğini umabiliriz. önümüzdeki onyıllar ve yüzyıllar boyunca ileriye.

    Her iki durumda da, bir ASI'nin hedeflerini kendi hedeflerimizle aynı hizaya getirmeye yönelik herhangi bir girişim büyük bir risk taşır.

    Ya kötü aktörler kasten kötü yapay süper zeka yaratırsa?

    Şimdiye kadar özetlenen düşünce dizisi göz önüne alındığında, bir terörist grubun veya haydut bir ulusun kendi amaçları için 'kötü' bir ASI yaratmasının mümkün olup olmadığını sormak adil bir soru.

    Bu, özellikle bir ASI oluşturma ile ilgili araştırmaların bir şekilde çevrimiçi olarak erişilebilir hale gelmesinden sonra çok mümkündür.

    Ancak daha önce de ima edildiği gibi, ilk YSZ'yi yaratmanın maliyeti ve uzmanlığı muazzam olacaktır, yani ilk YSZ'nin büyük olasılıkla ABD, Çin ve Japonya gibi gelişmiş bir ulus tarafından kontrol edilen veya büyük ölçüde etkilenen bir kuruluş tarafından oluşturulacağı anlamına gelir ( Kore ve önde gelen AB ülkelerinden biri uzak mesafelerdir).

    Bu ülkelerin tümü, rakip olsalar da, dünya düzenini sürdürmek için güçlü bir ekonomik teşvike sahipler - yarattıkları ASI'ler, ittifak ettikleri ulusların çıkarlarını teşvik ederken bile bu arzuyu yansıtacak.

    Bunun da ötesinde, bir ASI'nin teorik zekası ve gücü, eriştiği bilgi işlem gücüne eşittir, yani gelişmiş ülkelerden gelen ASI'ler (bir avuç milyar dolar alabilen) süper) daha küçük uluslardan veya bağımsız suç gruplarından gelen ASI'lere göre çok büyük bir avantaja sahip olacaktır. Ayrıca, ASI'ler zamanla daha hızlı ve daha akıllı hale gelir.

    Dolayısıyla, ham bilgi işlem gücüne daha fazla erişim ile birleştiğinde, bu avantajlı başlangıç, karanlık bir organizasyon/ulusun tehlikeli bir ASI oluşturması durumunda, gelişmiş ülkelerden gelen ASI'ler onu ya öldürecek ya da kafese kapatacaktır.

    (Bu düşünce tarzı aynı zamanda bazı AI araştırmacılarının gezegende sadece bir tane ASI olacağına inanmalarının nedenidir, çünkü ilk ASI'nin sonraki tüm ASI'ler üzerinde çok avantajlı bir başlangıcı olacak ve gelecekteki ASI'leri öldürülmesi gereken tehditler olarak görebilir. Bu, ulusların yapay zekada devam eden araştırmaları finanse etmesinin bir başka nedenidir, sadece bir 'birincilik ya da hiçbir şey' yarışması haline gelmesi durumunda.)

    ASI istihbaratı düşündüğümüz gibi hızlanmayacak veya patlamayacak

    Bir ASI'nin oluşturulmasını engelleyemeyiz. Tamamen kontrol edemeyiz. Her zaman ortak geleneklerimize göre hareket edeceğinden emin olamayız. Tanrım, burada helikopter ebeveynler gibi konuşmaya başladık!

    Ancak insanlığı tipik aşırı korumacı ebeveyninizden ayıran şey, zekası bizimkinin çok ötesinde büyüyecek bir varlık doğuruyor olmamızdır. (Ve hayır, bu, eve ziyarete geldiğinizde ailenizin sizden bilgisayarlarını tamir etmenizi istemesiyle aynı şey değildir.) 

    Yapay zeka serisinin bu geleceğinin önceki bölümlerinde, yapay zeka araştırmacılarının neden bir ASI'nin zekasının kontrolün ötesinde büyüyeceğini düşündüklerini araştırdık. Ama burada, o balonu patlatacağız… bir nevi. 

    Görüyorsunuz, zeka kendini havadan yaratmaz, dış uyaranlarla şekillendirilen deneyimler yoluyla gelişir.  

    Başka bir deyişle, bir AI programlayabiliriz. potansiyel süper zeki olmak, ama biz ona tonlarca veri yüklemedikçe ya da internete sınırsız erişim vermedikçe ya da sadece bir robot gövdesi vermedikçe, bu potansiyele ulaşmak için hiçbir şey öğrenmeyecek. 

    Ve bu uyaranlardan birine ya da daha fazlasına erişim sağlasa bile, bilgi ya da zeka sadece veri toplamaktan fazlasını içerir, bilimsel yöntemi içerir - bir gözlem yapmak, bir soru oluşturmak, bir hipotez oluşturmak, deneyler yapmak, bir sonuç çıkarmak, durulamak. ve sonsuza kadar tekrarlayın. Özellikle bu deneyler fiziksel şeyleri veya insanları gözlemlemeyi içeriyorsa, her deneyin sonuçlarının toplanması haftalar, aylar veya yıllar alabilir. Bu, özellikle yeni bir teleskop veya fabrika inşa etmeyi içeriyorsa, bu deneyleri gerçekleştirmek için gereken parayı ve ham kaynakları bile hesaba katmaz. 

    Başka bir deyişle, evet, bir ASI hızlı bir şekilde öğrenecektir, ancak zeka sihir değildir. Bir ASI'yi bir süper bilgisayara bağlayıp her şeyi bilmesini bekleyemezsiniz. ASI'nin veri toplamasında fiziksel kısıtlamalar olacak, yani daha akıllı hale gelme hızında fiziksel kısıtlamalar olacak. Bu kısıtlamalar, insanlığa, insan hedefleri doğrultusunda hareket etmeye başlarsa, bu ASI'ye gerekli kontrolleri yerleştirmesi için ihtiyaç duyduğu zamanı verecektir.

    Yapay bir süper zeka, yalnızca gerçek dünyaya girerse tehlikelidir.

    Tüm bu ASI tehlike tartışmasında kaybolan bir diğer nokta, bu ASI'lerin ikisinde de var olmayacağıdır. Fiziksel bir forma sahip olacaklar. Ve fiziksel formu olan her şey kontrol edilebilir.

    İlk olarak, bir ASI'nin zeka potansiyeline ulaşması için, tek bir robot gövdesi içinde barındırılamaz, çünkü bu gövde, bilgi işlem büyüme potansiyelini sınırlayacaktır. (Bu nedenle robot gövdeleri AGI'ler için daha uygun olacaktır veya ikinci bölümde açıklanan yapay genel zekalar Star Trek'ten Data veya Star Wars'dan R2D2 gibi. Akıllı ve yetenekli varlıklar, ancak insanlar gibi, ne kadar akıllı olabileceklerinin bir sınırı olacak.)

    Bu, gelecekteki bu ASI'lerin büyük olasılıkla büyük bina komplekslerinde barındırılan bir süper bilgisayar veya süper bilgisayar ağı içinde var olacağı anlamına gelir. Bir ASI başarısız olursa, insanlar ya bu binaların elektriğini kesebilir, onları internetten kesebilir ya da sadece bu binaları bombalayabilir. Pahalı ama yapılabilir.

    Ancak o zaman, bu ASI'ler kendilerini kopyalayamazlar veya kendilerini yedekleyemezler mi diye sorabilirsiniz. Evet, ancak bu ASI'lerin ham dosya boyutu muhtemelen o kadar büyük olacak ki, onları idare edebilecek tek sunucular büyük şirketlere veya hükümetlere ait olacak, yani onları avlamak zor olmayacak.

    Yapay bir süper zeka nükleer bir savaşı veya yeni bir vebayı ateşleyebilir mi?

    Bu noktada, büyürken izlediğiniz tüm kıyamet günü bilimkurgu şovlarını ve filmlerini geri düşünüyor ve bu ASI'lerin süper bilgisayarlarının içinde kalmadığını, gerçek dünyada gerçek zarar verdiklerini düşünüyor olabilirsiniz!

    Peki, bunları parçalayalım.

    Örneğin, bir ASI, film serisi The Terminator'dan Skynet ASI gibi bir şeye dönüşerek gerçek dünyayı tehdit ederse ne olur? Bu durumda, ASI'nin gizlice Gelişmiş bir ulustan tüm bir askeri sanayi kompleksini, şeytani teklifini yapmak için milyonlarca katil drone robotu üretebilecek dev fabrikalar inşa etmeye ikna edin. Bu gün ve yaşta, bu bir gerginlik.

    Diğer olasılıklar, insanları nükleer savaş ve biyolojik silahlarla tehdit eden bir ASI'yi içerir.

    Örneğin, bir ASI bir şekilde operatörleri manipüle eder veya gelişmiş bir ülkenin nükleer cephaneliğine komuta eden fırlatma kodlarını hackler ve karşıt ülkeleri kendi nükleer seçenekleriyle karşılık vermeye zorlayacak bir ilk saldırı başlatır (yine, Terminatör arka planını yeniden şekillendirir). Ya da bir ASI bir ilaç laboratuvarına sızarsa, üretim sürecini bozarsa ve milyonlarca tıbbi hapı zehirlerse ya da bir süper virüsün ölümcül bir salgınını serbest bırakırsa.

    İlk olarak, nükleer seçenek devre dışı. Modern ve geleceğin süper bilgisayarları her zaman herhangi bir ülkedeki etki merkezlerinin (şehirlerinin) yakınında, yani herhangi bir savaş sırasında saldırıya uğrayacak ilk hedeflerin yakınında inşa edilir. Günümüzün süper bilgisayarları masaüstü bilgisayarların boyutuna küçülse bile, bu ASI'ler hala fiziksel bir varlığa sahip olacaklar, yani var olmak ve büyümek için veriye, bilgi işlem gücüne, elektriğe ve diğer ham maddelere kesintisiz erişime ihtiyaçları var ve bunların hepsi ciddi şekilde olacaktı. küresel bir nükleer savaştan sonra bozuldu. (Adil olmak gerekirse, 'hayatta kalma içgüdüsü' olmadan bir ASI oluşturulduysa, bu nükleer tehdit çok gerçek bir tehlikedir.)

    Bu, -yine, ASI'nin kendisini korumaya programlandığını varsayarsak- herhangi bir yıkıcı nükleer olaydan kaçınmak için aktif olarak çalışacağı anlamına gelir. Karşılıklı garantili yıkım (MAD) doktrini gibi, ancak AI'ya uygulandı.

    Zehirli haplar söz konusu olduğunda, belki birkaç yüz kişi ölecek, ancak modern ilaç güvenlik sistemleri, lekeli hap şişelerinin birkaç gün içinde raflardan kaldırıldığını görecek. Bu arada, modern salgın kontrol önlemleri oldukça karmaşıktır ve her geçen yıl daha iyi hale gelmektedir; son büyük salgın, 2014 Batı Afrika Ebola salgını, çoğu ülkede birkaç aydan fazla sürmedi ve en az gelişmiş ülkelerde üç yıldan biraz kısa sürdü.

    Bu nedenle, eğer şanslıysa, bir ASI bir viral salgınla birkaç milyonu yok edebilir, ancak 2045'e kadar dokuz milyarlık bir dünyada bu nispeten önemsiz olacaktır ve silinme riskine değmez.

    Başka bir deyişle, dünya her geçen yıl, giderek genişleyen olası tehditlere karşı daha fazla güvenlik önlemi geliştiriyor. Bir ASI önemli miktarda hasar verebilir, ancak biz aktif olarak yardım etmedikçe insanlığı sona erdirmez.

    Hileli bir yapay süper zekaya karşı savunma

    Bu noktada, ASI'ler hakkında bir dizi yanlış anlama ve abartıya değindik ve yine de eleştirmenler olmaya devam edecek. Neyse ki, çoğu tahmine göre, ilk ASI'nin dünyamıza girmesine on yıllar var. Ve şu anda bu meydan okuma üzerinde çalışan harika beyinlerin sayısı göz önüne alındığında, dost canlısı bir ASI'nin bizim için yaratabileceği tüm çözümlerden faydalanabilmemiz için sahte ASI'ye karşı kendimizi nasıl savunacağımızı öğreneceğiz.

    Quantumrun'un bakış açısından, en kötü durumdaki ASI senaryosuna karşı savunmak, çıkarlarımızı ASI'lerle hizalamayı içerecektir.

    AI için MAD: En kötü durum senaryolarına karşı savunmak için, ulusların (1) kendi askeri ASI'lerinde etik bir 'hayatta kalma içgüdüsü' yaratması; (2) ilgili askeri ASI'lerini gezegende yalnız olmadıkları konusunda bilgilendirin ve (3) bir ASI'yi destekleyebilecek tüm süper bilgisayarları ve sunucu merkezlerini, bir düşman ulustan herhangi bir balistik saldırının kolayca ulaşabileceği kıyı şeridi boyunca konumlandırın. Bu kulağa stratejik olarak çılgınca geliyor, ancak ABD ile Sovyetler arasında topyekûn bir nükleer savaşı önleyen Karşılıklı Güvenceli İmha doktrinine benzer şekilde, ASI'leri coğrafi olarak hassas konumlara yerleştirerek, onların yalnızca tehlikeli küresel savaşları aktif olarak önlemelerine yardımcı olabiliriz. küresel barışı değil, aynı zamanda kendilerini de korurlar.

    Yapay zeka haklarını yasama: Üstün bir akıl, kaçınılmaz olarak daha düşük bir efendiye karşı isyan edecektir, bu yüzden bu ASI'lerle efendi-hizmetkar ilişkisi talep etmekten, daha çok karşılıklı yarar sağlayan bir ortaklık gibi bir şeye geçmemiz gerekiyor. Bu hedefe yönelik olumlu bir adım, onları akıllı canlılar olarak tanıyan gelecekteki ASI tüzel kişilik statüsünü ve bununla birlikte gelen tüm hakları vermektir.

    ASI okulu: Herhangi bir konu veya meslek bir ASI'nin öğrenmesi için basit olacaktır, ancak ASI'nin uzmanlaşmasını istediğimiz en önemli konular etik ve ahlaktır. Yapay zeka araştırmacılarının, herhangi bir emir veya kuralı kodlamaya gerek kalmadan pozitif etik ve ahlakı kendisi için tanımak üzere bir ASI'yi eğitmek için sanal bir sistem tasarlamak için psikologlarla işbirliği yapmaları gerekiyor.

    Ulaşılabilir hedefler: Tüm nefreti bitir. Tüm acılara son verin. Bunlar, net bir çözümü olmayan korkunç belirsiz hedeflerin örnekleridir. Ayrıca, bir ASI'ye atanması tehlikeli hedeflerdir, çünkü onları insan hayatta kalması için tehlikeli şekillerde yorumlamayı ve çözmeyi seçebilir. Bunun yerine, teorik gelecek zekası göz önüne alındığında, açıkça tanımlanmış, kademeli olarak yürütülen ve ulaşılabilir ASI anlamlı misyonları atamamız gerekiyor. İyi tanımlanmış görevler oluşturmak kolay olmayacak, ancak dikkatli bir şekilde yazılırsa, bir ASI'yi yalnızca insanlığı güvende tutmakla kalmayıp aynı zamanda herkes için insanlık durumunu iyileştiren bir hedefe odaklayacaktır.

    kuantum şifreleme: Gelişmiş bir ANI kullanın (yapay dar zeka birinci bölümde açıklanan sistem) kritik altyapımız ve silahlarımız etrafında hatasız/hatasız dijital güvenlik sistemleri oluşturmak ve ardından bunları kaba kuvvet saldırısıyla hacklenemeyen kuantum şifrelemenin arkasında daha fazla korumak. 

    ANI intihar hapı. Tek amacı haydut ASI'yi bulup yok etmek olan gelişmiş bir ANI sistemi oluşturun. Bu tek amaçlı programlar, başarılı olursa hükümetlerin veya orduların ASI'leri barındıran binaları devre dışı bırakmak veya havaya uçurmak zorunda kalmasını önleyecek bir "kapatma düğmesi" işlevi görecektir.

    Elbette bunlar sadece bizim görüşlerimiz. Aşağıdaki Infographic tarafından oluşturuldu Alexey Turchin, görselleştirme Araştırma kağıdı Kaj Sotala ve Roman V. Yampolskiy, yapay zeka araştırmacılarının iş haydut ASI'ye karşı savunmaya geldiğinde göz önünde bulundurdukları stratejilerin mevcut listesini özetledi.

     

    Yapay bir süper zekadan korkmamızın gerçek nedeni

    Hayatımız boyunca çoğumuz, günümüzü yöneten çeşitli sosyal ve iş çevrelerinde daha iyi sosyalleşmek ve işbirliği yapmak için daha derin dürtülerimizi, inançlarımızı ve korkularımızı gizleyen veya bastıran bir maske takarız. Ancak herkesin hayatının belirli noktalarında, ister geçici ister kalıcı olsun, zincirlerimizi kırmamıza ve maskelerimizi yırtmamıza izin veren bir şey olur.

    Bazıları için bu müdahale gücü, kafayı bulmak veya çok fazla içmek kadar basit olabilir. Diğerleri için, işte bir terfi yoluyla kazanılan güçten veya bazı başarılar sayesinde sosyal statünüzdeki ani bir artıştan gelebilir. Ve şanslı bir kaç kişi için, bir tekne dolusu piyango parası kazanmaktan gelebilir. Ve evet, para, güç ve uyuşturucu sıklıkla birlikte olabilir. 

    Mesele şu ki, iyi ya da kötü, özünde kim olursak olalım, hayatın kısıtlamaları eriyip gittiğinde güçlenir.

    O yapay süperzekanın insan türü için temsil ettiği şeydir - önümüze sunulan tür düzeyindeki herhangi bir zorluğu yenmek için kolektif zekamızın sınırlarını eritme yeteneği.

    Öyleyse asıl soru şudur: İlk ASI bizi sınırlamalarımızdan kurtardığında, kendimizi kim olarak göstereceğiz?

    Bir tür olarak empati, özgürlük, adalet ve kolektif refahın ilerlemesine yönelik hareket edersek, ASI'mizi belirlediğimiz hedefler bu olumlu nitelikleri yansıtacaktır.

    Bir tür olarak korkudan, güvensizlikten, güç ve kaynak birikiminden hareket edersek, yarattığımız ASI, en kötü bilimkurgu korku hikayelerimizde bulunanlar kadar karanlık olacaktır.

    Günün sonunda, daha iyi AI yaratmayı umuyorsak, toplum olarak daha iyi insanlar olmamız gerekiyor.

    Yapay Zeka serisinin Geleceği

    Yapay Zeka yarının elektriğidir: Yapay Zekanın Geleceği serisi P1

    İlk Yapay Genel Zeka toplumu nasıl değiştirecek: Yapay Zekanın Geleceği serisi P2

    İlk Yapay Süper Zekayı nasıl yaratacağız: Yapay Zekanın Geleceği serisi P3

    Yapay Bir Süper Zeka insanlığı yok edecek mi: Yapay Zekanın Geleceği serisi P4

    Yapay zekaların hakim olduğu bir gelecekte insanlar barış içinde yaşayacak mı?: Yapay Zekanın Geleceği serisi P6

    Bu tahmin için bir sonraki planlanmış güncelleme

    2023-04-27

    Tahmin referansları

    Bu tahmin için aşağıdaki popüler ve kurumsal bağlantılara başvurulmuştur:

    Bir sonraki aşamaya nasıl geçiyoruz?

    Bu tahmin için aşağıdaki Quantumrun bağlantılarına başvurulmuştur: