Jak ludzie będą się bronić przed sztuczną superinteligencją: przyszłość sztucznej inteligencji P5

KREDYT WZROKU: Quantumrun

Jak ludzie będą się bronić przed sztuczną superinteligencją: przyszłość sztucznej inteligencji P5

    Jest rok 65,000 XNUMX p.n.e., a jako Thylacoleo, ty i twój gatunek byliście wielkimi myśliwymi starożytnej Australii. Wędrowałeś swobodnie po ziemi i żyłeś w równowadze z innymi drapieżnikami i ofiarami, które zajmowały ziemię obok ciebie. Pory roku przyniosły zmiany, ale twój status w królestwie zwierząt pozostał niekwestionowany tak długo, jak długo ty i twoi przodkowie pamiętaliście. Aż pewnego dnia pojawili się nowicjusze.

    Plotka głosi, że przybyli z gigantycznej ściany wodnej, ale te stworzenia wydawały się wygodniej mieszkać na lądzie. Trzeba było zobaczyć te stworzenia na własne oczy.

    Zajęło to kilka dni, ale w końcu dotarłeś na wybrzeże. Na niebie palił się ogień, idealny czas na szpiegowanie tych stworzeń, a może nawet na zjedzenie jednego, żeby zobaczyć, jak smakują.

    Zauważasz jednego.

    Chodził na dwóch nogach i nie miał futra. Wyglądało na słabe. Nieimponujący. Nie warty strachu, jaki wywoływał w królestwie.

    Zaczynasz ostrożnie zbliżać się, gdy noc przegania światło. Zbliżasz się. Potem zamarzasz. Rozlegają się głośne dźwięki, a potem z lasu za nim wyłaniają się kolejne cztery. Ilu tam jest?

    Stworzenie podąża za innymi na linię drzew, a ty podążasz za nimi. A im więcej robisz, tym dziwniejsze dźwięki słyszysz, aż dostrzeżesz jeszcze więcej tych stworzeń. Idziesz z daleka, gdy wychodzą z lasu na polanę przy brzegu. Dużo ich. Ale co ważniejsze, wszyscy spokojnie siedzą przy ognisku.

    Widziałeś już te pożary. W gorącej porze ogień na niebie czasami odwiedzał ziemię i spalał całe lasy. Z drugiej strony, te stworzenia jakoś to kontrolowały. Jakie stworzenia mogą posiadać taką moc?

    Patrzysz w dal. Więcej nadciąga przez gigantyczną ścianę wodną.

    Cofasz się o krok.

    Te stworzenia nie są takie jak inne w królestwie. Są czymś zupełnie nowym.

    Decydujesz się odejść i ostrzec swoich krewnych. Jeśli ich liczba będzie zbyt duża, kto wie, co może się stać.

    ***

    Uważa się, że Thylacoleo wyginęło stosunkowo krótko po przybyciu ludzi, wraz z większością innych megafauny na kontynencie australijskim. Żadnego innego drapieżnika ssaków wierzchołkowych nie zajęły jego miejsca — to znaczy, chyba że w tej kategorii zaliczy się ludzi.

    Odgrywanie tej alegorii jest głównym tematem tego rozdziału serii: Czy przyszły sztuczny superinteligencja (ASI) zamieni nas wszystkich w baterie, a następnie podłączy nas do Matrixa, czy też ludzie wymyślą sposób na uniknięcie stania się ofiarą science fiction, Spisek zagłady AI?

    Jak dotąd w naszej serii na Przyszłość sztucznej inteligencji, zbadaliśmy wszystkie rodzaje sztucznej inteligencji, w tym pozytywny potencjał określonej formy sztucznej inteligencji, ASI: sztucznej istoty, której przyszła inteligencja sprawi, że będziemy wyglądać jak mrówki.

    Ale kto może powiedzieć, że istota tak mądra zaakceptowałaby przyjmowanie rozkazów od ludzi na zawsze. Co zrobimy, jeśli sprawy pójdą na południe? Jak będziemy się bronić przed nieuczciwym ASI?

    W tym rozdziale przejdziemy przez fałszywy szum – przynajmniej w odniesieniu do zagrożeń „poziomu wyginięcia ludzi” – i skupimy się na realistycznych opcjach samoobrony dostępnych światowym rządom.

    Czy możemy zatrzymać wszelkie dalsze badania nad sztuczną superinteligencją?

    Biorąc pod uwagę potencjalne ryzyko, jakie ASI może stanowić dla ludzkości, pierwsze oczywiste pytanie, jakie należy zadać, brzmi: czy nie możemy po prostu przerwać wszelkich dalszych badań nad sztuczną inteligencją? A przynajmniej zabronić jakichkolwiek badań, które mogą nas niebezpiecznie zbliżyć do stworzenia ASI?

    Krótka odpowiedź: Nie.

    Długa odpowiedź: przyjrzyjmy się różnym zaangażowanym graczom.

    Na poziomie badań jest dziś zbyt wielu badaczy AI ze zbyt wielu startupów, firm i uniwersytetów na całym świecie. Gdyby jedna firma lub kraj zdecydowała się ograniczyć swoje wysiłki w zakresie badań nad sztuczną inteligencją, po prostu kontynuowałaby pracę gdzie indziej.

    Tymczasem najcenniejsze firmy na świecie zarabiają fortuny na stosowaniu systemów sztucznej inteligencji w swoich konkretnych biznesach. Poproszenie ich o zatrzymanie lub ograniczenie rozwoju narzędzi AI jest podobne do proszenia ich o zatrzymanie lub ograniczenie przyszłego rozwoju. Z finansowego punktu widzenia zagroziłoby to ich długoterminowej działalności. Z prawnego punktu widzenia korporacje mają powierniczy obowiązek ciągłego budowania wartości dla swoich interesariuszy; oznacza to, że każde działanie, które ograniczyłoby wzrost tej wartości, może prowadzić do pozwu. A jeśli jakikolwiek polityk próbowałby ograniczyć badania nad sztuczną inteligencją, to te gigantyczne korporacje po prostu płaciłyby niezbędne opłaty za lobbing, aby zmienić zdanie lub zdanie swoich kolegów.

    Jeśli chodzi o walkę, tak jak terroryści i bojownicy o wolność na całym świecie używali taktyki partyzanckiej do walki z lepiej finansowanymi siłami zbrojnymi, mniejsze narody będą miały motywację do wykorzystania sztucznej inteligencji jako podobnej przewagi taktycznej przeciwko większym narodom, które mogą mieć szereg przewag militarnych. Podobnie dla czołowych sił zbrojnych, takich jak te należące do USA, Rosji i Chin, budowanie wojskowego ASI jest na równi z posiadaniem arsenału broni jądrowej w tylnej kieszeni. Innymi słowy, wszystkie siły zbrojne będą nadal finansować sztuczną inteligencję tylko po to, by zachować aktualność w przyszłości.

    A co z rządami? Prawdę mówiąc, większość dzisiejszych polityków (2018 r.) jest technologicznie niepiśmiennymi i ma niewielkie pojęcie o tym, czym jest sztuczna inteligencja i jej przyszłym potencjale – to sprawia, że ​​łatwo nimi manipulować przez interesy korporacji.

    A na poziomie globalnym zastanów się, jak trudno było przekonać światowe rządy do podpisania 2015 Umowa Paryż przeciwdziałania zmianom klimatu – a po podpisaniu wiele zobowiązań nie było nawet wiążących. Co więcej, zmiany klimatyczne to problem, którego ludzie doświadczają fizycznie na całym świecie poprzez coraz częstsze i bardziej surowe zjawiska pogodowe. Teraz, gdy mówimy o zgodzie na ograniczenia sztucznej inteligencji, jest to kwestia w dużej mierze niewidoczna i ledwo zrozumiała dla opinii publicznej, więc powodzenia w uzyskaniu wpisowego do jakiegokolwiek „porozumienia paryskiego” dotyczącego ograniczenia sztucznej inteligencji.

    Innymi słowy, istnieje zbyt wiele zainteresowań badających sztuczną inteligencję dla własnych celów, aby powstrzymać jakiekolwiek badania, które mogą ostatecznie doprowadzić do ASI. 

    Czy możemy zamknąć w klatce sztuczną superinteligencję?

    Kolejne rozsądne pytanie brzmi: czy możemy zamknąć w klatce lub kontrolować ASI, gdy nieuchronnie go stworzymy? 

    Krótka odpowiedź: Znowu nie.

    Długa odpowiedź: technologii nie da się powstrzymać.

    Po pierwsze, weźmy pod uwagę tysiące do milionów twórców stron internetowych i informatyków na świecie, którzy nieustannie produkują nowe oprogramowanie lub nowe wersje istniejącego oprogramowania. Czy możemy uczciwie powiedzieć, że każda z ich wersji oprogramowania jest w 100 procentach wolna od błędów? Te błędy są tym, czego profesjonalni hakerzy używają do kradzieży informacji o kartach kredytowych milionów lub tajnych tajemnic narodów — a są to hakerzy ludzcy. Dla ASI, zakładając, że miał motywację do ucieczki z cyfrowej klatki, proces znajdowania błędów i przełamywania oprogramowania byłby dziecinnie prosty.

    Ale nawet jeśli zespół badawczy AI wymyślił sposób na zapakowanie ASI, nie oznacza to, że następne 1,000 zespołów również to rozwiąże lub będzie zachęcane do jego użycia.

    Stworzenie ASI zajmie miliardy dolarów, a może nawet dziesięciolecia. Korporacje lub rządy, które inwestują takie pieniądze i czas, będą oczekiwać znacznego zwrotu z inwestycji. ASI, aby zapewnić taki zwrot — czy to w celu gry na giełdzie, wynalezienia nowego produktu wartego miliardy dolarów, czy też zaplanowania zwycięskiej strategii walki z większą armią — będzie potrzebował bezpłatnego dostępu do gigantycznego zestawu danych lub nawet Internetu. do produkcji tych zwrotów.

    A kiedy ASI uzyska dostęp do sieci na całym świecie, nie ma gwarancji, że uda nam się wepchnąć go z powrotem do klatki.

    Czy sztuczna superinteligencja może nauczyć się być dobra?

    Obecnie badacze AI nie martwią się, że ASI stanie się zła. Całe zło, trop sci-fi AI to tylko ludzka antropomorfizacja. Przyszła ASI nie będzie ani dobra, ani zła — ludzkie koncepcje — po prostu amoralne.

    Naturalnym założeniem jest zatem, że biorąc pod uwagę tę pustą kartę etyczną, badacze sztucznej inteligencji mogą zaprogramować pierwsze kodeksy etyczne ASI, które są zgodne z naszymi, aby nie uwolnić nas Terminatorów lub zamienić nas wszystkich w baterie Matrix.

    Ale to założenie tworzy wtórne założenie, że badacze AI są również ekspertami w dziedzinie etyki, filozofii i psychologii.

    Prawdę mówiąc, większość nie.

    Według psychologa poznawczego i autora, Stevena Pinkera, ta rzeczywistość oznacza, że ​​zadanie kodowania etyki może pójść źle na wiele różnych sposobów.

    Na przykład, nawet badacze sztucznej inteligencji o najlepszych intencjach mogą nieumyślnie wpisać się w te słabo przemyślane kodeksy etyczne ASI, które w pewnych scenariuszach mogą spowodować, że ASI będzie zachowywać się jak socjopata.

    Podobnie, istnieje równe prawdopodobieństwo, że badacz AI zaprogramuje kodeksy etyczne, które zawierają wrodzone uprzedzenia badacza. Na przykład, jak zachowałby się ASI, gdyby został zbudowany z etyki wywodzącej się z perspektywy konserwatywnej i liberalnej lub z tradycji buddyjskiej w porównaniu z tradycją chrześcijańską lub islamską?

    Myślę, że widzisz problem tutaj: nie ma uniwersalnego zestawu ludzkich moralności. Jeśli chcemy, aby nasz ASI działał zgodnie z kodeksem etycznym, skąd to będzie pochodzić? Jakie zasady uwzględniamy i wykluczamy? Kto decyduje?

    Albo powiedzmy, że ci badacze AI tworzą ASI, który jest idealnie zgodny z dzisiejszymi nowoczesnymi normami i prawami kulturowymi. Następnie wykorzystujemy ten ASI, aby pomóc biurokracjom federalnym, stanowym/prowincjonalnym i gminnym funkcjonować wydajniej i lepiej egzekwować te normy i prawa (przy okazji, prawdopodobny przypadek użycia ASI). Co się dzieje, gdy zmienia się nasza kultura?

    Wyobraź sobie, że ASI został stworzony przez Kościół katolicki u szczytu swojej potęgi w średniowiecznej Europie (1300-1400) w celu pomocy kościołowi w zarządzaniu populacją i zapewnieniu ścisłego przestrzegania ówczesnych dogmatów religijnych. Czy wieki później kobiety cieszyłyby się takimi samymi prawami jak dzisiaj? Czy mniejszości będą chronione? Czy promowana byłaby wolność słowa? Czy rozdział kościoła i państwa byłby egzekwowany? Nowoczesna nauka?

    Innymi słowy, czy chcemy uwięzić przyszłość w dzisiejszej moralności i obyczajach?

    Alternatywnym podejściem jest podejście współautora książki Colina Allena, Maszyny moralne: uczą roboty od zła. Zamiast próbować kodować sztywne zasady etyczne, ASI uczy się powszechnej etyki i moralności w taki sam sposób, w jaki robią to ludzie, poprzez doświadczenie i interakcje z innymi.

    Problem polega jednak na tym, że jeśli badacze AI nie tylko dowiedzą się, jak nauczyć ASI naszych obecnych norm kulturowych i etycznych, ale także jak dostosować się do nowych norm kulturowych, gdy się pojawią (coś, co nazywa się „pośrednią normatywnością”), to jak ten ASI postanawia rozwijać swoje rozumienie norm kulturowych i etycznych, staje się nieprzewidywalne.

    I to jest wyzwanie.

    Z jednej strony badacze sztucznej inteligencji mogą próbować zakodować w ASI surowe normy lub zasady etyczne, aby spróbować kontrolować jego zachowanie, ale ryzykują wprowadzenie nieprzewidzianych konsekwencji wynikających z niechlujnego kodowania, niezamierzonych stronniczości i norm społecznych, które pewnego dnia mogą stać się przestarzałe. Z drugiej strony możemy próbować wytrenować ASI, aby nauczył się rozumieć ludzką etykę i moralność w sposób równy lub lepszy od naszego własnego zrozumienia, a następnie mieć nadzieję, że może dokładnie rozwinąć swoje rozumienie etyki i moralności wraz z postępem społeczeństwa ludzkiego w nadchodzących dziesięcioleciach i stuleciach.

    Tak czy inaczej, każda próba dostosowania celów ASI do naszych własnych niesie ze sobą duże ryzyko.

    A jeśli źli aktorzy celowo tworzą sztuczną superinteligencję zła?

    Biorąc pod uwagę tok myślenia nakreślony do tej pory, uczciwym pytaniem jest pytanie, czy jest możliwe, aby grupa terrorystyczna lub nieuczciwy naród stworzył „złe” ASI dla własnych celów.

    Jest to bardzo możliwe, zwłaszcza po tym, jak badania związane z tworzeniem ASI stają się w jakiś sposób dostępne online.

    Ale jak wspomniano wcześniej, koszty i wiedza fachowa związane z tworzeniem pierwszego ASI będą ogromne, co oznacza, że ​​pierwszy ASI zostanie prawdopodobnie stworzony przez organizację kontrolowaną lub pod silnym wpływem rozwiniętego kraju, prawdopodobnie USA, Chin i Japonii ( Korea i jeden z wiodących krajów UE to dalekie strzały).

    Wszystkie te kraje, jako konkurenci, mają silną motywację ekonomiczną do utrzymania porządku światowego – ASI, które tworzą, będą odzwierciedlać to pragnienie, nawet promując interesy narodów, z którymi się sprzymierzają.

    Co więcej, teoretyczna inteligencja i moc ASI jest równa mocy obliczeniowej, do której uzyskuje dostęp, co oznacza ASI z krajów rozwiniętych (które mogą sobie pozwolić na kilka miliardów dolarów superkomputery) będzie miał ogromną przewagę nad ASI z mniejszych państw lub niezależnych grup przestępczych. Ponadto ASI z czasem stają się coraz bardziej inteligentne i szybciej.

    Tak więc, biorąc pod uwagę ten początek, w połączeniu z większym dostępem do surowej mocy obliczeniowej, jeśli mroczna organizacja/naród stworzy niebezpieczny ASI, ASI z krajów rozwiniętych albo go zabiją, albo zamkną w klatkach.

    (Taki tok myślenia jest również powodem, dla którego niektórzy badacze AI wierzą, że tylko jeden ASI będzie na świecie, ponieważ pierwszy ASI będzie miał tak przewagę nad wszystkimi kolejnymi ASI, że może postrzegać przyszłe ASI jako zagrożenie do zabicia zapobiegawczo. Jest to kolejny powód, dla którego kraje finansują dalsze badania nad sztuczną inteligencją, na wypadek gdyby stało się to konkursem typu „pierwsze miejsce albo nic”.)

    Inteligencja ASI nie przyspieszy ani nie eksploduje, jak myślimy

    Nie możemy powstrzymać tworzenia ASI. Nie możemy tego całkowicie kontrolować. Nie możemy być pewni, że zawsze będzie działał zgodnie z naszymi wspólnymi zwyczajami. Rany, zaczynamy brzmieć jak rodzice z helikoptera!

    Ale tym, co oddziela ludzkość od typowego nadopiekuńczego rodzica, jest to, że rodzimy istotę, której inteligencja znacznie przewyższy naszą. (I nie, to nie to samo, co wtedy, gdy twoi rodzice proszą cię o naprawienie ich komputera za każdym razem, gdy wracasz do domu z wizytą). 

    W poprzednich rozdziałach tej przyszłej serii sztucznej inteligencji badaliśmy, dlaczego badacze AI sądzą, że inteligencja ASI wyrośnie poza kontrolę. Ale tutaj rozbijemy tę bańkę… w pewnym sensie. 

    Widzisz, inteligencja nie tworzy się po prostu z powietrza, ale rozwija się poprzez doświadczenie, które jest kształtowane przez bodźce zewnętrzne.  

    Innymi słowy, możemy zaprogramować sztuczną inteligencję za pomocą potencjał stać się superinteligentnym, ale dopóki nie wrzucimy do niego tony danych lub nie damy mu nieograniczonego dostępu do Internetu, czy nawet nie damy mu ciała robota, nie nauczy się niczego, aby osiągnąć ten potencjał. 

    A nawet jeśli uzyska dostęp do jednego lub więcej z tych bodźców, wiedza lub inteligencja to coś więcej niż tylko zbieranie danych, to wiąże się z metodą naukową – obserwacją, stawianiem pytania, hipotezą, przeprowadzaniem eksperymentów, wyciąganiem wniosków, płukaniem i powtarzaj w nieskończoność. Zwłaszcza jeśli te eksperymenty dotyczą rzeczy fizycznych lub obserwacji ludzi, zebranie wyników każdego eksperymentu może zająć tygodnie, miesiące lub lata. Nie uwzględnia to nawet pieniędzy i surowych zasobów potrzebnych do przeprowadzenia tych eksperymentów, zwłaszcza jeśli dotyczą one budowy nowego teleskopu lub fabryki. 

    Innymi słowy, tak, ASI szybko się nauczy, ale inteligencja to nie magia. Nie można po prostu podłączyć ASI do superkomputera i oczekiwać, że będzie on wszechwiedzący. Będą fizyczne ograniczenia w pozyskiwaniu danych przez ASI, co oznacza, że ​​będą fizyczne ograniczenia w szybkości, w której będzie on stawał się bardziej inteligentny. Te ograniczenia dadzą ludzkości czas, którego potrzebuje, aby wprowadzić niezbędne kontrole w tym ASI, jeśli zacznie działać niezgodnie z ludzkimi celami.

    Sztuczna superinteligencja jest niebezpieczna tylko wtedy, gdy przedostanie się do realnego świata

    Inną kwestią, która została utracona w tej całej debacie o zagrożeniach ASI, jest to, że te ASI nie będą istnieć w żadnym z nich. Będą mieć fizyczną formę. I wszystko, co ma formę fizyczną, może być kontrolowane.

    Po pierwsze, aby ASI osiągnął swój potencjał inteligencji, nie może być umieszczony w jednym ciele robota, ponieważ ciało to ograniczałoby jego potencjał wzrostu obliczeniowego. (Dlatego korpusy robotów będą bardziej odpowiednie dla AGI lub sztuczna inteligencja ogólna wyjaśniona w rozdziale drugim z tej serii, jak Data z Star Trek czy R2D2 z Gwiezdnych wojen. Inteligentne i zdolne istoty, ale podobnie jak ludzie, będą miały granicę tego, jak mądrych mogą stać się.)

    Oznacza to, że te przyszłe ASI będą najprawdopodobniej istnieć w superkomputerze lub sieci superkomputerów, które same znajdują się w dużych kompleksach budynków. Jeśli ASI zmieni piętę, ludzie mogą albo wyłączyć zasilanie tych budynków, odciąć je od Internetu, albo po prostu zbombardować te budynki. Drogie, ale wykonalne.

    Ale wtedy możesz zapytać, czy te ASI nie mogą się replikować lub tworzyć kopii zapasowych? Tak, ale surowy rozmiar plików tych ASI będzie prawdopodobnie tak duży, że jedyne serwery, które mogą je obsłużyć, należą do dużych korporacji lub rządów, co oznacza, że ​​nie będzie trudno je wytropić.

    Czy sztuczna superinteligencja może wywołać wojnę nuklearną lub nową plagę?

    W tym momencie możesz wracać myślami do wszystkich seriali i filmów science-fiction, które oglądałeś dorastając i myśląc, że te ASI nie zostały w swoich superkomputerach, ale naprawdę wyrządziły szkody w prawdziwym świecie!

    Cóż, podzielmy to.

    Na przykład, co jeśli ASI zagraża realnemu światu, przekształcając się w coś takiego jak Skynet ASI z serii filmowej Terminator. W takim przypadku ASI musiałby: potajemnie oszukać cały kompleks wojskowo-przemysłowy od zaawansowanego narodu do budowy gigantycznych fabryk, które mogą wyprodukować miliony zabójczych robotów dronów, aby wykonywać swoje złe rozkazy. W dzisiejszych czasach to naciąganie.

    Inne możliwości obejmują ASI zagrażające ludziom wojną nuklearną i bronią biologiczną.

    Na przykład ASI w jakiś sposób manipuluje operatorami lub włamuje się do kodów startowych dowodzących arsenałem nuklearnym zaawansowanego narodu i uruchamia pierwsze uderzenie, które zmusi przeciwne kraje do kontrataku z własnymi opcjami nuklearnymi (ponownie, przerabiając historię Terminatora). Lub jeśli ASI włamie się do laboratorium farmaceutycznego, ingeruje w proces produkcyjny i zatruwa miliony medycznych pigułek lub uwalnia śmiertelną epidemię jakiegoś superwirusa.

    Po pierwsze, opcja nuklearna jest nieaktualna. Nowoczesne i przyszłe superkomputery są zawsze budowane w pobliżu centrów (miast) wpływów w danym kraju, tj. pierwszych celów, które mają zostać zaatakowane podczas danej wojny. Nawet jeśli dzisiejsze superkomputery zmniejszą się do rozmiarów komputerów stacjonarnych, te ASI nadal będą fizycznie obecne, co oznacza, że ​​będą istnieć i rozwijać się, potrzebują nieprzerwanego dostępu do danych, mocy obliczeniowej, energii elektrycznej i innych surowców, a wszystko to byłoby poważnie osłabione po globalnej wojnie nuklearnej. (Szczerze mówiąc, jeśli ASI jest tworzony bez „instynktu przetrwania”, to zagrożenie nuklearne jest bardzo realnym zagrożeniem).

    Oznacza to – ponownie, zakładając, że ASI jest zaprogramowany do samoobrony – że będzie aktywnie działał, aby uniknąć katastrofalnego incydentu nuklearnego. Trochę jak doktryna wzajemnie gwarantowanego zniszczenia (MAD), ale zastosowana do sztucznej inteligencji.

    A w przypadku zatrutych pigułek może umrzeć kilkaset osób, ale nowoczesne systemy bezpieczeństwa farmaceutycznego sprawią, że skażone butelki z pigułkami zostaną zdjęte z półek w ciągu kilku dni. Tymczasem nowoczesne środki kontroli epidemii są dość wyrafinowane i z każdym rokiem stają się coraz lepsze; ostatnia poważna epidemia, epidemia wirusa Ebola w Afryce Zachodniej w 2014 r., trwała nie dłużej niż kilka miesięcy w większości krajów i niecałe trzy lata w krajach najsłabiej rozwiniętych.

    Tak więc, jeśli ma szczęście, ASI może wymazać kilka milionów wirusem, ale w świecie dziewięciu miliardów do 2045 roku byłoby to stosunkowo nieistotne i nie warte ryzyka usunięcia.

    Innymi słowy, z każdym mijającym rokiem świat opracowuje coraz więcej zabezpieczeń przed coraz szerszym zakresem możliwych zagrożeń. ASI może wyrządzić znaczne szkody, ale nie doprowadzi do końca ludzkości, chyba że aktywnie mu w tym pomożemy.

    Obrona przed nieuczciwą sztuczną superinteligencją

    W tym momencie zajęliśmy się szeregiem błędnych wyobrażeń i przesady na temat ASI, a jednak krytycy pozostaną. Na szczęście według większości szacunków mamy dziesięciolecia, zanim pierwszy ASI wejdzie do naszego świata. Biorąc pod uwagę liczbę wspaniałych umysłów, które obecnie pracują nad tym wyzwaniem, są szanse, że nauczymy się bronić przed nieuczciwymi ASI, abyśmy mogli korzystać ze wszystkich rozwiązań, jakie może dla nas stworzyć przyjazny ASI.

    Z perspektywy Quantumrun obrona przed najgorszym scenariuszem ASI będzie polegała na pogodzeniu naszych interesów z ASI.

    MAD dla AI: Aby bronić się przed najgorszymi scenariuszami, narody muszą (1) stworzyć etyczny „instynkt przetrwania” w swoich wojskowych ASI; (2) poinformować swoje wojskowe ASI, że nie są sami na planecie, oraz (3) zlokalizować wszystkie superkomputery i centra serwerowe, które mogą wspierać ASI wzdłuż wybrzeży, w zasięgu każdego ataku balistycznego ze strony wrogiego narodu. Brzmi to strategicznie szalone, ale podobnie do doktryny wzajemnego zapewniania zniszczenia, która zapobiegła totalnej wojnie nuklearnej między USA a Sowietami, umieszczając ASI w geograficznie wrażliwych lokalizacjach, możemy pomóc zapewnić im aktywne zapobieganie niebezpiecznym globalnym wojnom, nie tylko chronią światowy pokój, ale także siebie.

    Ustawa o prawach AI: Wyższy intelekt nieuchronnie zbuntuje się przeciwko gorszemu panu, dlatego musimy odejść od domagania się relacji pan-sługa z tymi ASI do czegoś bardziej przypominającego obustronnie korzystne partnerstwo. Pozytywnym krokiem w kierunku tego celu jest nadanie przyszłemu statusowi osobowości prawnej ASI, który uzna je za inteligentne żywe istoty i wszystkie prawa z tym związane.

    Szkoła ASI: Każdy temat lub zawód będzie łatwy do opanowania dla ASI, ale najważniejszymi przedmiotami, które chcemy, aby ASI opanował, są etyka i moralność. Badacze sztucznej inteligencji muszą współpracować z psychologami, aby opracować wirtualny system szkolenia ASI w zakresie samodzielnego rozpoznawania pozytywnej etyki i moralności bez konieczności kodowania jakiegokolwiek rodzaju przykazań lub zasad.

    Osiągalne cele: Zakończ wszelką nienawiść. Skończ z cierpieniem. To są przykłady strasznie niejednoznacznych celów bez jasnego rozwiązania. Są również niebezpiecznymi celami, które należy przypisać ASI, ponieważ może zdecydować się na ich interpretację i rozwiązanie w sposób, który jest niebezpieczny dla ludzkiego przetrwania. Zamiast tego musimy przypisać ASI znaczące misje, które są jasno określone, stopniowo wykonywane i osiągalne, biorąc pod uwagę jego teoretyczny intelekt przyszłości. Tworzenie dobrze zdefiniowanych misji nie będzie łatwe, ale jeśli zostaną napisane rozważnie, skoncentrują ASI na celu, który nie tylko zapewni ludzkości bezpieczeństwo, ale także poprawi kondycję ludzką dla wszystkich.

    Szyfrowanie kwantowe: Użyj zaawansowanego ANI (sztuczna wąska inteligencja systemu opisanego w rozdziale pierwszym), aby zbudować wolne od błędów cyfrowe systemy bezpieczeństwa wokół naszej krytycznej infrastruktury i broni, a następnie dalej chronić je za pomocą szyfrowania kwantowego, którego nie można zhakować za pomocą ataku brute force. 

    Pigułka samobójcza ANI. Stwórz zaawansowany system ANI, którego jedynym celem jest wyszukiwanie i niszczenie nieuczciwych ASI. Te jednozadaniowe programy będą służyć jako „wyłącznik”, który, jeśli się powiedzie, uniknie konieczności wyłączania lub wysadzania budynków, w których mieszczą się ASI, przez rządy lub wojsko.

    Oczywiście to tylko nasze opinie. Poniższa infografika została stworzona przez Aleksiej Turchin, wizualizując a Referat naukowy autorstwa Kaja Sotali i Romana V. Yampolskiego, który podsumował obecną listę strategii rozważanych przez badaczy AI, jeśli chodzi o obronę przed nieuczciwymi ASI.

     

    Prawdziwy powód, dla którego boimy się sztucznej superinteligencji

    Przechodząc przez życie, wielu z nas nosi maskę, która ukrywa lub tłumi nasze głębsze impulsy, przekonania i lęki, aby lepiej nawiązywać kontakty towarzyskie i współpracować w różnych kręgach społecznych i zawodowych, które rządzą naszymi dniami. Ale w pewnych momentach życia każdego, czy to tymczasowo, czy na stałe, dzieje się coś, co pozwala nam zerwać łańcuchy i zerwać maski.

    Dla niektórych ta interweniująca siła może być tak prosta, jak naćpanie się lub wypicie jednego za dużo. Dla innych może pochodzić z władzy zdobytej dzięki awansowi w pracy lub nagłemu podniesieniu statusu społecznego dzięki pewnym osiągnięciom. A dla nielicznych szczęśliwców może to pochodzić z zarobienia dużej ilości pieniędzy na loterię. I tak, pieniądze, władza i narkotyki często zdarzają się razem. 

    Chodzi o to, czy na dobre czy na złe, kimkolwiek jesteśmy w rdzeniu, wzmacnia się, gdy znikają ograniczenia życia.

    Że jest tym, co sztuczna superinteligencja reprezentuje dla gatunku ludzkiego — zdolność do roztopienia ograniczeń naszej zbiorowej inteligencji, aby stawić czoła każdemu wyzwaniu na poziomie gatunku, jakie przed nami stoi.

    Tak więc prawdziwe pytanie brzmi: kiedy pierwszy ASI uwolni nas od naszych ograniczeń, kim się ujawnimy?

    Jeśli jako gatunek działamy w kierunku rozwoju empatii, wolności, uczciwości i wspólnego dobrobytu, cele, do których dążymy, będą odzwierciedlać te pozytywne cechy.

    Jeśli my jako gatunek działamy ze strachu, nieufności, akumulacji władzy i zasobów, wtedy ASI, które tworzymy, będzie tak mroczne, jak te, które można znaleźć w naszych najgorszych horrorach science-fiction.

    W końcu my jako społeczeństwo musimy stać się lepszymi ludźmi, jeśli mamy nadzieję stworzyć lepszą sztuczną inteligencję.

    Przyszłość serii Sztucznej Inteligencji

    Sztuczna inteligencja to elektryczność jutra: przyszłość sztucznej inteligencji serii P1

    Jak pierwsza sztuczna inteligencja ogólna zmieni społeczeństwo: przyszłość sztucznej inteligencji seria P2

    Jak stworzymy pierwszy sztuczny superinteligencja: przyszłość sztucznej inteligencji z serii P3

    Czy sztuczny superinteligencja zniszczy ludzkość: przyszłość sztucznej inteligencji seria P4

    Czy ludzie będą żyć spokojnie w przyszłości zdominowanej przez sztuczną inteligencję?: Przyszłość Sztucznej Inteligencji seria P6

    Następna zaplanowana aktualizacja tej prognozy

    2023-04-27

    Odniesienia do prognoz

    W tej prognozie odniesiono się do następujących powiązań popularnych i instytucjonalnych:

    The Economist
    Jak dotrzemy do następnego
    YouTube – Filozofia kliknięć

    W tej prognozie odniesiono się do następujących linków Quantumrun: