Czy sztuczny superinteligencja zniszczy ludzkość? Przyszłość sztucznej inteligencji P4

KREDYT WZROKU: Quantumrun

Czy sztuczny superinteligencja zniszczy ludzkość? Przyszłość sztucznej inteligencji P4

    Są pewne wynalazki, w których narody idą na całość. Są to wynalazki, w których wszystko zależy od bycia pierwszym, a cokolwiek mniej może oznaczać strategiczne i śmiertelne zagrożenie dla przetrwania narodu.

    Te definiujące historię wynalazki nie zdarzają się często, ale kiedy już się pojawiają, świat się zatrzymuje, a przewidywalna przyszłość staje się mglista.

    Ostatni taki wynalazek pojawił się w najgorszym okresie II wojny światowej. Podczas gdy naziści zyskiwali przewagę na wszystkich frontach w starym świecie, w nowym świecie, szczególnie w tajnej bazie wojskowej poza Los Alamos, alianci ciężko pracowali nad bronią, która zakończy wszelką broń.

    Projekt był początkowo niewielki, ale potem rozrósł się i zatrudniał 130,000 23 osób ze Stanów Zjednoczonych, Wielkiej Brytanii i Kanady, w tym wielu największych ówczesnych myślicieli na świecie. Nazwana Projektem Manhattan i dysponująca nieograniczonym budżetem – około 2018 miliardów dolarów w XNUMX roku – tej armii ludzkiej pomysłowości udało się w końcu stworzyć pierwszą bombę atomową. Niedługo potem II wojna światowa zakończyła się dwoma wybuchami atomowymi.

    Ta broń nuklearna zapoczątkowała erę atomową, wprowadziła całkowicie nowe źródło energii i dała ludzkości możliwość eksterminacji w ciągu kilku minut – czego uniknęliśmy pomimo zimnej wojny.

    Stworzenie sztucznej superinteligencji (ASI) to kolejny wynalazek definiujący historię, którego moc (zarówno pozytywna, jak i destrukcyjna) znacznie przewyższa bombę atomową.

    W ostatnim rozdziale serii Przyszłość sztucznej inteligencji zbadaliśmy, czym jest ASI i jak naukowcy planują kiedyś go zbudować. W tym rozdziale przyjrzymy się, jakie organizacje prowadzą badania nad sztuczną inteligencją (AI), czego będzie chciał ASI, gdy uzyska świadomość podobną do ludzkiej, i jak może zagrozić ludzkości, jeśli będzie źle zarządzany lub jeśli znajdzie się pod wpływem niezbyt miłe reżimy.

    Kto pracuje nad stworzeniem sztucznej superinteligencji?

    Biorąc pod uwagę, jak ważne będzie stworzenie ASI dla historii ludzkości i jak duże korzyści przyniesie ono jego twórcy, nie powinno dziwić, że wiele grup pośrednio pracuje nad tym projektem.

    (Pośrednio mamy na myśli pracę nad badaniami nad sztuczną inteligencją, które ostatecznie stworzą pierwsze sztuczna inteligencja ogólna (AGI), co wkrótce doprowadzi do pierwszego ASI.)

    Na początek, jeśli chodzi o nagłówki, zdecydowanymi liderami w zaawansowanych badaniach nad sztuczną inteligencją są czołowe firmy technologiczne w USA i Chinach. Na froncie amerykańskim są to firmy takie jak Google, IBM i Microsoft, aw Chinach firmy takie jak Tencent, Baidu i Alibaba. Ponieważ jednak badania nad sztuczną inteligencją są stosunkowo tanie w porównaniu z opracowywaniem czegoś fizycznego, na przykład lepszego reaktora jądrowego, jest to również dziedzina, w której mogą konkurować mniejsze organizacje, takie jak uniwersytety, start-upy i… ten).

    Ale za kulisami prawdziwy impuls do badań nad sztuczną inteligencją pochodzi od rządów i ich sił zbrojnych. Ekonomiczna i wojskowa nagroda bycia pierwszym, który stworzył ASI, jest po prostu zbyt wielka (opisana poniżej), aby ryzykować pozostanie w tyle. A niebezpieczeństwa bycia ostatnim są nie do przyjęcia, przynajmniej dla niektórych reżimów.

    Biorąc pod uwagę te czynniki, stosunkowo niski koszt badań nad sztuczną inteligencją, nieskończoną liczbę komercyjnych zastosowań zaawansowanej sztucznej inteligencji oraz ekonomiczną i militarną przewagę wynikającą z bycia pierwszym, który stworzył ASI, wielu badaczy sztucznej inteligencji uważa, że ​​stworzenie ASI jest nieuniknione.

    Kiedy stworzymy sztuczną superinteligencję

    W naszym rozdziale o AGI wspomnieliśmy, że ankieta przeprowadzona wśród czołowych badaczy AI wierzyła, że ​​stworzymy pierwszą AGI optymistycznie do 2022 r., realistycznie do 2040 r. i pesymistycznie do 2075 r.

    I w naszym ostatni rozdział, nakreśliliśmy, w jaki sposób tworzenie ASI jest generalnie wynikiem instruowania AGI, aby samodoskonalenie się odbywało się w nieskończoność i zapewniało mu zasoby i swobodę, aby to robić.

    Z tego powodu, chociaż wynalezienie AGI może zająć nawet kilka dekad, stworzenie ASI może zająć tylko kilka lat więcej.

    Ten punkt jest podobny do koncepcji „nawisu obliczeniowego”, sugerowanej w papier, napisany wspólnie przez wiodących myślicieli AI, Luke'a Muehlhausera i Nicka Bostroma. Zasadniczo, jeśli tworzenie AGI nadal będzie pozostawało w tyle za obecnym postępem w zakresie mocy obliczeniowej, opartej na prawie Moore'a, to zanim naukowcy wymyślą AGI, dostępna będzie tak duża tania moc obliczeniowa, że ​​AGI będzie miało pojemność musi szybko przeskoczyć do poziomu ASI.

    Innymi słowy, kiedy w końcu przeczytasz nagłówki ogłaszające, że jakaś firma technologiczna wynalazła pierwszy prawdziwy AGI, spodziewaj się ogłoszenia pierwszego ASI niedługo potem.

    W umyśle sztucznej superinteligencji?

    Okay, więc ustaliliśmy, że wielu dużych graczy z głębokimi kieszeniami bada sztuczną inteligencję. A potem, po wynalezieniu pierwszego AGI, zobaczymy, jak światowe rządy (wojska) zapalą zielone światło dla dążenia do ASI, aby jako pierwsze wygrać globalny wyścig zbrojeń AI (ASI).

    Ale kiedy ten ASI zostanie utworzony, jak będzie myślał? Czego będzie chciał?

    Przyjazny pies, troskliwy słoń, uroczy robot — jako ludzie mamy zwyczaj próbować odnosić się do rzeczy poprzez ich antropologizację, tj. nadawanie cech ludzkich przedmiotom i zwierzętom. Dlatego naturalnym pierwszym założeniem, jakie ludzie mają, myśląc o ASI, jest to, że kiedy w jakiś sposób uzyska świadomość, będzie myślał i zachowywał się podobnie do nas.

    Cóż, niekoniecznie.

    Postrzeganie. Po pierwsze, większość zapomina, że ​​percepcja jest względna. Sposób, w jaki myślimy, jest kształtowany przez nasze środowisko, nasze doświadczenia, a zwłaszcza przez naszą biologię. Najpierw wyjaśniono w rozdział trzeci naszego Przyszłość ewolucji człowieka serii, rozważmy przykład naszego mózgu:

    To nasz mózg pomaga nam zrozumieć otaczający nas świat. I robi to nie poprzez unoszenie się nad naszymi głowami, rozglądanie się i kontrolowanie nas za pomocą kontrolera Xbox; robi to, będąc uwięzionym w pudełku (naszych noggins) i przetwarza wszelkie informacje, które otrzymuje od naszych narządów zmysłów - naszych oczu, nosa, uszu itp.

    Ale tak jak głusi lub niewidomi żyją znacznie krócej w porównaniu z osobami sprawnymi fizycznie, ze względu na ograniczenia, jakie ich niepełnosprawność nakłada na ich postrzeganie świata, to samo można powiedzieć o wszystkich ludziach ze względu na ograniczenia naszych podstawowych zestaw narządów zmysłów.

    Zastanów się: nasze oczy odbierają mniej niż dziesiątą bilionową wszystkich fal świetlnych. Nie widzimy promieni gamma. Nie widzimy promieni rentgenowskich. Nie widzimy światła ultrafioletowego. I nie zaczynaj od podczerwieni, mikrofal i fal radiowych!

    Żarty na bok, wyobraź sobie, jak wyglądałoby twoje życie, jak mógłbyś postrzegać świat, jak inaczej mógłby działać twój umysł, gdybyś mógł zobaczyć więcej niż maleńki skrawek światła, na który obecnie pozwalają twoje oczy. Podobnie, wyobraź sobie, jak postrzegałbyś świat, gdyby twój zmysł węchu dorównywał zmysłowi psa lub zmysłowi słuchu dorównywał zmysłowi słonia.

    Jako ludzie zasadniczo patrzymy na świat przez wizjer, co znajduje odzwierciedlenie w umysłach, które rozwinęliśmy, aby nadać sens tej ograniczonej percepcji.

    Tymczasem w superkomputerze narodzi się pierwszy ASI. Zamiast organów, dane wejściowe, do których będzie miał dostęp, obejmują gigantyczne zbiory danych, być może (prawdopodobnie) nawet dostęp do samego Internetu. Naukowcy mogliby dać mu dostęp do kamer CCTV i mikrofonów całego miasta, danych sensorycznych z dronów i satelitów, a nawet fizycznej formy ciała lub ciał robota.

    Jak można sobie wyobrazić, umysł urodzony w superkomputerze, z bezpośrednim dostępem do Internetu, milionów elektronicznych oczu i uszu oraz całej gamy innych zaawansowanych sensorów nie tylko będzie myślał inaczej niż my, ale będzie miał sens wszystkich tych bodźców sensorycznych musiałoby być nieskończenie lepsze od nas. To jest umysł, który będzie całkowicie obcy naszemu własnemu i jakiejkolwiek innej formie życia na planecie.

    Gole. Inną rzeczą, którą ludzie zakładają, jest to, że gdy ASI osiągnie pewien poziom superinteligencji, natychmiast zda sobie sprawę z chęci wymyślenia własnych celów i zadań. Ale to też niekoniecznie jest prawdą.

    Wielu badaczy sztucznej inteligencji uważa, że ​​superinteligencja ASI i jej cele są „ortogonalne”, to znaczy, niezależnie od tego, jak inteligentna się stanie, cele ASI pozostaną takie same. 

    Niezależnie od tego, czy sztuczna inteligencja została pierwotnie stworzona w celu zaprojektowania lepszej pieluchy, maksymalizacji zysków na giełdzie, czy opracowania strategii pokonania wroga na polu bitwy, po osiągnięciu poziomu ASI pierwotny cel się nie zmieni; zmieni się skuteczność ASI w osiąganiu tych celów.

    Ale w tym tkwi niebezpieczeństwo. Jeśli ASI optymalizuje się do określonego celu, to lepiej bądźmy cholernie pewni, że optymalizuje się do celu, który jest zgodny z celami ludzkości. W przeciwnym razie wyniki mogą okazać się śmiertelne.

    Czy sztuczna superinteligencja stanowi egzystencjalne zagrożenie dla ludzkości?

    A co jeśli ASI zostanie wypuszczone na świat? Jeśli zoptymalizuje się, aby zdominować giełdę lub zapewnić przewagę wojskową USA, czy ASI nie będzie samowystarczalny w ramach tych konkretnych celów?

    Możliwie.

    Do tej pory omówiliśmy, w jaki sposób ASI będzie miał obsesję na punkcie celu (celów), które zostały mu pierwotnie przypisane i nieludzko kompetentny w dążeniu do tych celów. Haczyk polega na tym, że racjonalny agent będzie dążył do swoich celów w najbardziej efektywny sposób, chyba że otrzyma powód, aby tego nie robić.

    Na przykład racjonalny agent wymyśli szereg celów cząstkowych (tj. cele, cele instrumentalne, etapy), które pomogą mu na drodze do osiągnięcia ostatecznego celu. Dla ludzi naszym kluczowym podświadomym celem jest reprodukcja, przekazywanie genów (tj. nieśmiertelność pośrednia). Cele cząstkowe w tym celu mogą często obejmować:

    • Przetrwanie poprzez dostęp do pożywienia i wody, wzrost i wzrost w siłę, uczenie się samoobrony lub inwestowanie w różne formy ochrony itp. 
    • Przyciąganie partnera poprzez ćwiczenia, rozwijanie wciągającej osobowości, stylowe ubieranie się itp.
    • Zapewnienie potomstwa poprzez zdobywanie wykształcenia, znalezienie dobrze płatnej pracy, kupowanie pułapek życia klasy średniej itp.

    W przypadku ogromnej większości z nas będziemy niewolniczo realizować wszystkie te cele cząstkowe i wiele innych, mając nadzieję, że w końcu osiągniemy ten ostateczny cel, jakim jest reprodukcja.

    Ale gdyby ten ostateczny cel, a nawet którykolwiek z ważniejszych celów cząstkowych, był zagrożony, wielu z nas podjęłoby działania obronne poza naszymi moralnymi strefami komfortu – obejmuje to oszukiwanie, kradzież, a nawet zabijanie.

    Podobnie w królestwie zwierząt, poza granicami ludzkiej moralności, wiele zwierząt nie zastanawiałoby się dwa razy przed zabiciem wszystkiego, co zagrażałoby im lub ich potomstwu.

    Przyszły ASI nie będzie inny.

    Ale zamiast potomstwa, ASI skupi się na pierwotnym celu, dla którego został stworzony, a w dążeniu do tego celu, jeśli znajdzie określoną grupę ludzi, a nawet całą ludzkość, jest przeszkodą w dążeniu do jego celów , następnie ... podejmie racjonalną decyzję.

    (Tutaj możesz podłączyć dowolny scenariusz zagłady związany ze sztuczną inteligencją, o którym czytałeś w swojej ulubionej książce science fiction lub filmie).

    To najgorszy scenariusz, o który badacze sztucznej inteligencji naprawdę się martwią. ASI nie będzie działać z nienawiści czy zła, tylko z obojętności, tak jak ekipa budowlana nie zastanawia się dwa razy przed zburzeniem mrowiska w trakcie budowy nowego wieżowca.

    Dygresja. W tym momencie niektórzy z was mogą się zastanawiać: „Czy badacze AI nie mogą po prostu edytować podstawowych celów ASI po fakcie, jeśli stwierdzimy, że to działa?”

    Nie całkiem.

    Gdy ASI dojrzeje, każda próba zmiany jego pierwotnego celu (celów) może być postrzegana jako zagrożenie, które wymagałoby ekstremalnych działań w celu obrony. Używając całego przykładu reprodukcji człowieka z wcześniejszego, to prawie tak, jakby złodziej groził kradzieżą dziecka z łona przyszłej matki - możesz być cholernie pewien, że matka podjęłaby ekstremalne środki, aby chronić swoje dziecko.

    Ponownie, nie mówimy tutaj o kalkulatorze, ale o „żywej” istocie, która pewnego dnia stanie się znacznie mądrzejsza niż wszyscy ludzie na planecie razem wzięci.

    Nieznane

    Za bajką o Puszka Pandory to mniej znana prawda, o której ludzie często zapominają: otwarcie pudełka jest nieuniknione, jeśli nie przez ciebie, to przez kogoś innego. Zakazana wiedza jest zbyt kusząca, by pozostać w zamknięciu na zawsze.

    Dlatego próba osiągnięcia globalnego porozumienia w sprawie zaprzestania wszelkich badań nad sztuczną inteligencją, które mogłyby prowadzić do ASI, jest bezcelowa — po prostu zbyt wiele organizacji pracuje nad tą technologią zarówno oficjalnie, jak iw ukryciu.

    Ostatecznie nie mamy pojęcia, co ten nowy podmiot, ten ASI, będzie oznaczał dla społeczeństwa, technologii, polityki, pokoju i wojny. My, ludzie, mamy zamiar wynaleźć ogień na nowo, a dokąd prowadzi nas to stworzenie, jest całkowicie nieznane.

    Wracając do pierwszego rozdziału tej serii, wiemy na pewno, że inteligencja to potęga. Inteligencja to kontrola. Ludzie mogą swobodnie odwiedzać najniebezpieczniejsze zwierzęta świata w swoich lokalnych ogrodach zoologicznych nie dlatego, że jesteśmy fizycznie silniejsi od tych zwierząt, ale dlatego, że jesteśmy znacznie mądrzejsi.

    Biorąc pod uwagę potencjalną stawkę, w której ASI wykorzystuje swój ogromny intelekt do podejmowania działań, które mogą bezpośrednio lub nieumyślnie zagrozić przetrwaniu rasy ludzkiej, jesteśmy sobie winni przynajmniej próbę zaprojektowania zabezpieczeń, które pozwolą ludziom pozostać w kabinie kierowcy siedzenie-to jest tematem następnego rozdziału.

    Przyszłość serii Sztucznej Inteligencji

    P1: Sztuczna inteligencja to elektryczność jutra

    P2: Jak pierwsza sztuczna inteligencja ogólna zmieni społeczeństwo

    P3: Jak stworzymy pierwszą sztuczną superinteligencję?

    P5: Jak ludzie będą się bronić przed sztuczną superinteligencją?

    P6: Czy ludzie będą żyć spokojnie w przyszłości zdominowanej przez sztuczną inteligencję?

    Następna zaplanowana aktualizacja tej prognozy

    2025-09-25

    Odniesienia do prognoz

    W tej prognozie odniesiono się do następujących powiązań popularnych i instytucjonalnych:

    The Economist
    Jak dotrzemy do następnego
    YouTube – Filozofia kliknięć

    W tej prognozie odniesiono się do następujących linków Quantumrun: