Як людзі будуць абараняцца ад штучнага звышінтэлекту: будучыня штучнага інтэлекту P5

КРЭДЫТ ВЫЯВЫ: Quantumrun

Як людзі будуць абараняцца ад штучнага звышінтэлекту: будучыня штучнага інтэлекту P5

    Год - 65,000 XNUMX г. да н.э., і як a Thylacoleo, вы і ваш род былі вялікімі паляўнічымі старажытнай Аўстраліі. Вы свабодна блукалі па зямлі і жылі ў раўнавазе з іншымі драпежнікамі і здабычай, якія займалі зямлю побач з вамі. Поры года прыносілі змены, але ваш статус у царстве жывёл заставаўся нязменным столькі часу, колькі вы і вашы продкі сябе памятаеце. І вось аднойчы з'явіліся навічкі.

    Па чутках, яны прыляцелі з гіганцкай вадзяной сцяны, але гэтым істотам, здавалася, больш камфортна жыць на сушы. Вы павінны былі ўбачыць гэтыя істоты на свае вочы.

    Прайшло некалькі дзён, але вы нарэшце дабраліся да ўзбярэжжа. Агонь у небе разгараўся, ідэальны час, каб падгледзець гэтых істот, магчыма, нават паспрабаваць з'есці адно, каб убачыць, які яны на смак.

    Вы заўважаеце адзін.

    Ён хадзіў на дзвюх нагах і не меў поўсці. Выглядала слаба. Не ўражвае. Наўрад ці варта таго страху, які гэта выклікала ў каралеўстве.

    Вы пачынаеце асцярожна набліжацца, калі ноч праганяе святло. Ты ўсё бліжэй. Потым замярзаеш. Раздаюцца гучныя гукі, а затым з-за лесу з'яўляюцца яшчэ чацвёра. Колькі іх?

    Істота ідзе за іншымі ў лінію дрэў, а вы ідзяце за ёй. І чым больш вы робіце, тым больш дзіўных гукаў вы чуеце, пакуль не заўважыце яшчэ больш гэтых істот. Вы ідзяце здалёк, як яны выходзяць з лесу на паляну ля берага. Іх шмат. Але што яшчэ больш важна, усе яны спакойна сядзяць каля вогнішча.

    Вы ўжо бачылі гэтыя пажары. У гарачую пару года агонь у небе часам наведваў зямлю і выпальваў цэлыя лясы. Гэтыя істоты, з другога боку, яны нейкім чынам кантралявалі гэта. Што за істоты могуць валодаць такой сілай?

    Глядзіш удалячынь. Над гіганцкай вадзяной сцяной надыходзяць новыя.

    Вы робіце крок назад.

    Гэтыя істоты не падобныя на іншых у каралеўстве. Яны нешта зусім новае.

    Вы вырашылі сысці і папярэдзіць сваіх сваякоў. Калі іх колькасць вырасце занадта вялікай, хто ведае, што можа здарыцца.

    ***

    Лічыцца, што Thylacoleo вымерлі праз адносна кароткі час пасля прыбыцця людзей, разам з большасцю іншай мегафауны на аўстралійскім кантыненце. Ніякія іншыя вярхоўныя млекакормячыя драпежнікі не занялі яго месца - калі не лічыць людзей у гэтай катэгорыі.

    Абыгрыванне гэтай алегорыі - у цэнтры ўвагі гэтай главы серыі: ці ператворыць будучы штучны звышінтэлект (ASI) усіх нас у батарэі, а потым падключыць да Матрыцы, ці людзі знойдуць спосаб не стаць ахвярай навуковай фантастыкі, Сюжэт суднага дня AI?

    Пакуль у нашай серыі на Будучыня штучнага інтэлекту, мы даследавалі ўсе віды штучнага інтэлекту, у тым ліку станоўчы патэнцыял пэўнай формы штучнага інтэлекту, ASI: штучнай істоты, чый будучы інтэлект зробіць нас у параўнанні з мурашкамі.

    Але хто скажа, што такая разумная істота будзе вечна прымаць загады ад людзей. Што мы будзем рабіць, калі справы пойдуць на поўдзень? Як мы будзем абараняцца ад жуліка ASI?

    У гэтай главе мы разбяром фальшывую шуміху — прынамсі, што тычыцца небяспекі «ўзроўню знікнення чалавека» — і засяродзімся на рэалістычных варыянтах самаабароны, даступных сусветным урадам.

    Ці можам мы спыніць усе далейшыя даследаванні штучнага звышінтэлекту?

    Улічваючы патэнцыйныя рызыкі, якія ASI можа ўяўляць для чалавецтва, першае відавочнае пытанне, якое трэба задаць: ці не можам мы проста спыніць усе далейшыя даследаванні ІІ? Ці хаця б забараніць любыя даследаванні, якія могуць наблізіць нас да стварэння ASI?

    Кароткі адказ: Не.

    Доўгі адказ: давайце паглядзім на розных гульцоў, якія ўдзельнічаюць тут.

    На ўзроўні даследаванняў сёння занадта шмат даследчыкаў ІІ з вялікай колькасці стартапаў, кампаній і універсітэтаў па ўсім свеце. Калі адна кампанія ці краіна вырашылі абмежаваць свае намаганні па даследаванні штучнага інтэлекту, яны проста працягнулі б у іншым месцы.

    Між тым, самыя каштоўныя кампаніі планеты зарабляюць свае багацці на прымяненні сістэм штучнага інтэлекту ў сваіх канкрэтных прадпрыемствах. Прасіць іх спыніць або абмежаваць распрацоўку інструментаў штучнага інтэлекту падобна таму, каб прасіць іх спыніць або абмежаваць іх будучы рост. У фінансавым плане гэта пагражала б іх доўгатэрміноваму бізнесу. З юрыдычнага пункту гледжання карпарацыі нясуць фідуцыярную адказнасць за бесперапыннае стварэнне каштоўнасці для сваіх зацікаўленых бакоў; гэта азначае, што любое дзеянне, якое абмежавала б рост гэтага кошту, можа прывесці да судовага разбору. І калі б які-небудзь палітык паспрабаваў абмежаваць даследаванні штучнага інтэлекту, то гэтыя гіганцкія карпарацыі проста заплацілі б неабходныя ганарары за лабіраванне, каб змяніць сваё меркаванне або меркаванне сваіх калег.

    Для баявых дзеянняў, гэтак жа як тэрарысты і змагары за свабоду ва ўсім свеце выкарыстоўвалі партызанскую тактыку для барацьбы з больш фінансаванымі ўзброенымі сіламі, меншыя краіны будуць мець стымул выкарыстоўваць штучны інтэлект у якасці аналагічнай тактычнай перавагі супраць вялікіх краін, якія могуць мець шэраг ваенных пераваг. Сапраўды гэтак жа для вярхоўных узброеных сіл ЗША, Расіі і Кітая стварэнне ваеннага ASI - гэта тое ж самае, што мець у задняй кішэні арсенал ядзернай зброі. Іншымі словамі, усе ваенныя будуць працягваць фінансаваць штучны інтэлект, каб заставацца актуальнымі ў будучыні.

    Як наконт урадаў? Па праўдзе кажучы, большасць палітыкаў у нашы дні (2018) тэхналагічна непісьменныя і мала разумеюць, што такое штучны інтэлект і яго патэнцыял у будучыні — гэта дазваляе ім лёгка маніпуляваць карпаратыўнымі інтарэсамі.

    А на глабальным узроўні падумайце, як цяжка было пераканаць урады свету падпісаць 2015 год Парыж пагадненне па барацьбе са змяненнем клімату — і пасля падпісання многія з абавязацельстваў нават не былі абавязковымі. Мала таго, змяненне клімату - гэта праблема, з якой людзі фізічна сутыкаюцца ва ўсім свеце з-за ўсё больш частых і суровых пагодных з'яў. Цяпер, калі казаць пра згоду на абмежаванні на штучны інтэлект, гэта праблема, якая ў значнай ступені непрыкметная і малазразумелая для грамадскасці, так што ўдачы вам у падтрымцы любога роду «Парыжскага пагаднення» аб абмежаванні штучнага інтэлекту.

    Іншымі словамі, існуе занадта шмат зацікаўленых у даследаванні штучнага інтэлекту для ўласных мэтаў, каб спыніць любыя даследаванні, якія ў канчатковым выніку могуць прывесці да ASI. 

    Ці можам мы пасадзіць у клетку штучны звышінтэлект?

    Наступнае разумнае пытанне: ці можам мы абмежаваць або кантраляваць ASI, калі мы непазбежна яго створым? 

    Кароткі адказ: зноў жа, не.

    Доўгі адказ: тэхналогію немагчыма стрымаць.

    Па-першае, проста ўлічыце тысячы-мільёны вэб-распрацоўшчыкаў і інфарматыкаў у свеце, якія пастаянна ствараюць новае праграмнае забеспячэнне або новыя версіі існуючага праграмнага забеспячэння. Ці можам мы шчыра сказаць, што кожны іх выпуск праграмнага забеспячэння на 100 працэнтаў не мае памылак? Гэтыя памылкі выкарыстоўваюць прафесійныя хакеры, каб скрасці інфармацыю аб крэдытных картах мільёнаў або сакрэтныя сакрэты нацый, і гэта людзі-хакеры. Для ASI, калі выказаць здагадку, што ў яго ёсць стымул вырвацца з лічбавай клеткі, працэс пошуку памылак і ўзлому праграмнага забеспячэння будзе простым.

    Але нават калі даследчая група штучнага інтэлекту знайшла спосаб уключыць ASI ў скрынку, гэта не значыць, што наступныя 1,000 каманд таксама знойдуць гэта ці будуць стымуляваны выкарыстоўваць яго.

    Каб стварыць ASI, спатрэбяцца мільярды долараў і, магчыма, нават дзесяцігоддзі. Карпарацыі або ўрады, якія ўкладваюць такія грошы і час, чакаюць значнай аддачы ад сваіх інвестыцый. І для таго, каб ASI забяспечваў такі прыбытак — няхай гэта будзе гульня на фондавым рынку, вынаходніцтва новага прадукту на мільярд долараў або планаванне выйгрышнай стратэгіі барацьбы з большай арміяй — яму спатрэбіцца бясплатны доступ да гіганцкага набору даных або нават Інтэрнэт сам, каб вырабіць гэтыя даходы.

    І як толькі ASI атрымае доступ да сусветных сетак, няма ніякіх гарантый, што мы зможам запхнуць яго назад у клетку.

    Ці можа штучны звышінтэлект навучыцца быць добрым?

    Зараз даследчыкі штучнага інтэлекту не хвалююцца, што ASI стане злом. Увесь злы, навукова-фантастычны троп штучнага інтэлекту - гэта толькі людзі, якія зноў антрапамарфізуюць. Будучы ASI не будзе ні добрым, ні злым - чалавечыя паняцці - проста амаральныя.

    Такім чынам, натуральная здагадка заключаецца ў тым, што, улічваючы гэты чысты этычны аркуш, даследчыкі штучнага інтэлекту могуць запраграмаваць першыя этычныя кодэксы ASI, якія адпавядаюць нашым уласным, каб гэта не скончылася тым, што на нас не выпусцілі Тэрмінатары і не ператварылі ўсіх нас у батарэйкі Матрыцы.

    Але гэтая здагадка абапіраецца на другасную здагадку, што даследчыкі ІІ таксама з'яўляюцца экспертамі ў этыцы, філасофіі і псіхалогіі.

    Па праўдзе кажучы, большасць не.

    Па словах кагнітыўнага псіхолага і аўтара Стывена Пінкера, гэтая рэальнасць азначае, што задача кадзіравання этыкі можа пайсці не так рознымі спосабамі.

    Напрыклад, нават даследчыкі штучнага інтэлекту з самымі лепшымі намерамі могуць ненаўмысна закадзіраваць у гэтыя ASI дрэнна прадуманыя этычныя кодэксы, якія ў некаторых выпадках могуць прымусіць ASI паводзіць сябе як сацыяпат.

    Сапраўды гэтак жа існуе роўная верагоднасць таго, што даследчык штучнага інтэлекту запраграмуе этычныя кодэксы, якія ўключаюць у сябе прыроджаныя прадузятасці даследчыка. Напрыклад, як бы паводзіў сябе ASI, калі б пабудаваны на аснове этыкі, якая вынікае з кансерватыўнай супраць ліберальнай перспектывы, або з будысцкай супраць хрысціянскай або ісламскай традыцыі?

    Я думаю, вы бачыце тут праблему: не існуе універсальнага набору чалавечых маральных норм. Калі мы хочам, каб наш ASI дзейнічаў у адпаведнасці з этычным кодэксам, адкуль ён возьмецца? Якія правілы мы ўключаем і выключаем? Хто вырашае?

    Ці дапусцім, што гэтыя даследчыкі штучнага інтэлекту ствараюць ASI, які цалкам адпавядае сучасным культурным нормам і законам. Затым мы выкарыстоўваем гэты ASI, каб дапамагчы федэральным, штатным/правінцыйным і муніцыпальным бюракратыям працаваць больш эфектыўна і лепш выконваць гэтыя нормы і законы (дарэчы, верагодны варыянт выкарыстання ASI). Ну, а што адбываецца, калі наша культура мяняецца?

    Уявіце, што ASI быў створаны каталіцкай царквой на піку яе магутнасці ў сярэднявечнай Еўропе (1300-1400-я гады) з мэтай дапамагчы царкве кіраваць насельніцтвам і забяспечыць строгае прытрымліванне рэлігійным дагматам таго часу. Ці будуць жанчыны праз стагоддзі карыстацца такімі ж правамі, як сёння? Ці будуць абаронены меншасці? Ці будзе прасоўвацца свабода слова? Ці будзе праводзіцца аддзяленне царквы ад дзяржавы? Сучасная навука?

    Іншымі словамі, ці хочам мы зняволіць будучыню сённяшняй маралі і звычаям?

    Альтэрнатыўны падыход падзяляе Колін Ален, сааўтар кнігі, Маральныя машыны: навучанне робатаў правільнаму і няправільнаму. Замест таго, каб спрабаваць закадзіраваць жорсткія этычныя правілы, у нас ASI вывучаюць агульную этыку і мараль такім жа чынам, як і людзі, праз вопыт і ўзаемадзеянне з іншымі.

    Аднак праблема ў тым, што калі даследчыкі штучнага інтэлекту знойдуць не толькі тое, як навучыць ASI сучасным культурным і этычным нормам, але і як адаптавацца да новых культурных нормаў па меры іх узнікнення (тое, што называецца «ўскосная нарматыўнасць»), то як гэты ASI вырашае развіваць сваё разуменне культурных і этычных нормаў становіцца непрадказальным.

    І гэта выклік.

    З аднаго боку, даследчыкі штучнага інтэлекту могуць паспрабаваць закадзіраваць строгія этычныя стандарты або правілы ў ASI, каб паспрабаваць кантраляваць яго паводзіны, але рызыкуюць атрымаць непрадбачаныя наступствы з-за неакуратнага кадавання, ненаўмыснай прадузятасці і грамадскіх нормаў, якія аднойчы могуць састарэць. З іншага боку, мы можам паспрабаваць навучыць ASI разумець чалавечую этыку і мараль такім чынам, што будзе роўным або вышэйшым за наша ўласнае разуменне, а затым спадзявацца, што ён зможа дакладна развіваць сваё разуменне этыкі і маралі па меры развіцця чалавечага грамадства наперад на наступныя дзесяцігоддзі і стагоддзі.

    У любым выпадку, любая спроба супаставіць мэты ASI з нашымі ўласнымі ўяўляе вялікую рызыку.

    Што, калі дрэнныя акцёры наўмысна ствараюць злы штучны звышінтэлект?

    Улічваючы ход думак, выкладзеных дагэтуль, справядліва задаць пытанне, ці магчыма для тэрарыстычнай групы або краіны-ізгоя стварыць «злы» ASI для сваіх уласных мэтаў.

    Гэта вельмі магчыма, асабліва пасля таго, як даследаванні, звязаныя са стварэннем ASI, нейкім чынам становяцца даступнымі ў Інтэрнэце.

    Але, як было сказана раней, выдаткі і вопыт, звязаныя са стварэннем першага ASI, будуць велізарнымі, гэта значыць, што першы ASI, верагодна, будзе створаны арганізацыяй, якая знаходзіцца пад кантролем або пад моцным уплывам развітой краіны, верагодна, ЗША, Кітая і Японіі ( Карэя і адна з вядучых краін ЕС - гэта далёка).

    Усе гэтыя краіны, з'яўляючыся канкурэнтамі, маюць моцны эканамічны стымул падтрымліваць сусветны парадак - створаныя імі ASI будуць адлюстроўваць гэтае жаданне, нават прасоўваючы інтарэсы нацый, з якімі яны злучаныя.

    У дадатак да ўсяго, тэарэтычны інтэлект і магутнасць ASI роўныя вылічальнай магутнасці, да якой ён атрымлівае доступ, гэта значыць ASI з развітых краін (якія могуць дазволіць сабе кучу мільярдаў долараў суперкампутарах) будзе мець велізарную перавагу перад ASI з меншых краін або незалежных злачынных груп. Акрамя таго, ASI з часам становяцца больш разумнымі і хутчэй.

    Такім чынам, улічваючы гэтую фору ў спалучэнні з больш шырокім доступам да сырой вылічальнай магутнасці, калі ценявая арганізацыя/нацыя створыць небяспечную ASI, ASI з развітых краін альбо заб'юць яе, альбо пасадзяць у клетку.

    (Такая думка таксама з'яўляецца прычынай таго, што некаторыя даследчыкі штучнага інтэлекту лічаць, што на планеце будзе толькі адзін ASI, паколькі першы ASI будзе мець такую ​​перавагу над усімі наступнымі ASI, што можа разглядаць будучыя ASI як пагрозы, якія трэба знішчыць гэта яшчэ адна прычына, па якой дзяржавы фінансуюць працяг даследаванняў у галіне штучнага інтэлекту на ўсялякі выпадак, калі гэта стане спаборніцтвам «першае месца або нічога».)

    Інтэлект ASI не будзе паскарацца або выбухаць, як мы думаем

    Мы не можам спыніць стварэнне ASI. Мы не можам гэта цалкам кантраляваць. Мы не можам быць упэўнены, што ён заўсёды будзе дзейнічаць у адпаведнасці з нашымі агульнымі звычаямі. Божа, тут мы пачынаем гучаць як бацькі верталёта!

    Але тое, што аддзяляе чалавецтва ад вашых тыповых празмерна апекуючых бацькоў, заключаецца ў тым, што мы нараджаем істоту, чый інтэлект будзе значна перавышаць наш. (І не, гэта не тое ж самае, што бацькі просяць вас паправіць іх камп'ютар кожны раз, калі вы прыходзіце дадому ў госці.) 

    У папярэдніх раздзелах гэтай серыі пра будучыню штучнага інтэлекту мы даследавалі, чаму даследчыкі штучнага інтэлекту лічаць, што інтэлект ASI будзе расці па-за кантролем. Але вось, мы лопнем гэтую бурбалку... накшталт. 

    Разумееце, інтэлект не проста ствараецца з паветра, ён развіваецца праз вопыт, які фарміруецца знешнімі раздражняльнікамі.  

    Іншымі словамі, мы можам запраграмаваць штучны інтэлект з дапамогай патэнцыял каб стаць звышразумным, але пакуль мы не загрузім у яго масу даных, не дамо яму неабмежаваны доступ да Інтэрнэту або нават проста не дамо яму цела робата, ён нічога не навучыцца, каб дасягнуць гэтага патэнцыялу. 

    І нават калі ён атрымае доступ да аднаго або некалькіх з гэтых стымулаў, веды або інтэлект прадугледжваюць больш, чым проста збор даных, яны ўключаюць у сябе навуковы метад - назіранне, фарміраванне пытання, гіпотэзы, правядзенне эксперыментаў, выснову, прамыванне і паўтараць вечна. Асабліва калі гэтыя эксперыменты ўключаюць фізічныя рэчы або назіранне за людзьмі, для збору вынікаў кожнага эксперыменту могуць спатрэбіцца тыдні, месяцы ці гады. Гэта нават не ўлічвае грошы і сыравінныя рэсурсы, неабходныя для правядзення гэтых эксперыментаў, асабліва калі яны ўключаюць будаўніцтва новага тэлескопа або завода. 

    Іншымі словамі, так, ASI хутка вучыцца, але інтэлект - гэта не магія. Вы не можаце проста падключыць ASI да суперкампутара і чакаць, што ён будзе ўсёведным. Будуць фізічныя абмежаванні для збору даных ASI, што азначае, што будуць фізічныя абмежаванні для хуткасці, з якой ён становіцца больш разумным. Гэтыя абмежаванні дадуць чалавецтву час, неабходны для ўстаноўкі неабходнага кантролю над гэтым ASI, калі ён пачне дзейнічаць не ў адпаведнасці з чалавечымі мэтамі.

    Штучны звышінтэлект небяспечны толькі ў тым выпадку, калі ён выходзіць у рэальны свет

    Яшчэ адзін момант, які страчаны ва ўсёй гэтай дыскусіі аб небяспецы ASI, заключаецца ў тым, што гэтыя ASI не будуць існаваць ні ў адным, ні ў іншым. Яны будуць мець фізічную форму. І ўсё, што мае фізічную форму, можна кантраляваць.

    Па-першае, каб ASI мог дасягнуць свайго інтэлектуальнага патэнцыялу, яго нельга размясціць у адным корпусе робата, бо гэта абмяжоўвае яго патэнцыял росту вылічальнай колькасці. (Вось чаму целы робатаў больш падыходзяць для AGI або штучны агульны інтэлект тлумачыцца ў другім раздзеле гэтай серыі, як Дадзеныя з "Зорнага шляху" або R2D2 з "Зорных войнаў". Разумныя і здольныя істоты, але, як і ў людзей, у іх будзе мяжа разумнасці.)

    Гэта азначае, што гэтыя будучыя ASI, хутчэй за ўсё, будуць існаваць у суперкампутары або сетцы суперкампутараў, якія самі размяшчаюцца ў вялікіх будаўнічых комплексах. Калі ASI паварочваецца, людзі могуць альбо адключыць электрычнасць у гэтых будынках, адключыць іх ад Інтэрнэту, альбо проста разбамбіць гэтыя будынкі. Дорага, але выканальна.

    Але тады вы можаце спытаць, ці не могуць гэтыя ASI паўтарыць самі сябе або стварыць рэзервовую копію? Так, але памер неапрацаванага файла гэтых ASI, хутчэй за ўсё, будзе настолькі вялікім, што адзіныя серверы, якія могуць іх апрацоўваць, належаць буйным карпарацыям або ўрадам, а гэта значыць, што іх не будзе цяжка высачыць.

    Ці можа штучны звышінтэлект выклікаць ядзерную вайну або новую чуму?

    У гэты момант вы, магчыма, успомніце ўсе навукова-фантастычныя шоу і фільмы пра судны дзень, якія вы глядзелі, калі выраслі, і падумаеце, што гэтыя ASI не засталіся ў суперкампутарах, яны нанеслі рэальную шкоду ў рэальным свеце!

    Ну, давайце разбяром іх.

    Напрыклад, што, калі ASI пагражае рэальнаму свету, ператвараючыся ў нешта накшталт Skynet ASI з франшызы фільма «Тэрмінатар». У гэтым выпадку спатрэбіцца ASI таемна падмануць цэлы ваенна-прамысловы комплекс з развітой краіны ў будаўніцтва гіганцкіх заводаў, якія могуць вырабляць мільёны беспілотных робатаў-забойцаў, каб выконваць яго злыя загады. У наш час гэта нацяжка.

    Іншыя магчымасці ўключаюць ASI, які пагражае людзям ядзернай вайной і біялагічнай зброяй.

    Напрыклад, ASI нейкім чынам маніпулюе аператарамі або ўзломвае коды запуску, якія кіруюць ядзерным арсеналам перадавой краіны, і наносіць першы ўдар, які прымусіць супрацьлеглыя краіны нанесці ўдар у адказ сваімі ўласнымі ядзернымі магчымасцямі (зноў жа, перапісваючы перадгісторыю Тэрмінатара). Або калі ASI узломвае фармацэўтычную лабараторыю, умешваецца ў вытворчы працэс і атручвае мільёны медыцынскіх таблетак або выклікае смяротную ўспышку нейкага супервіруса.

    Па-першае, ядзерны варыянт не падыходзіць. Сучасныя і будучыя суперкампутары заўсёды будуюцца паблізу цэнтраў (гарадоў) уплыву ў той ці іншай краіне, г.зн. першых мэтаў, якія будуць атакаваныя падчас любой вайны. Нават калі сучасныя суперкампутары зменшацца да памераў настольных кампутараў, гэтыя ASI па-ранейшаму будуць фізічна прысутнічаць, гэта азначае, што для існавання і росту ім неабходны бесперабойны доступ да даных, вылічальнай магутнасці, электрычнасці і іншых сыравінных матэрыялаў, якія будуць сур'ёзна сапсаваны пасля сусветнай ядзернай вайны. (Калі быць справядлівымі, калі ASI ствараецца без «інстынкту выжывання», то гэтая ядзерная пагроза з'яўляецца вельмі рэальнай небяспекай.)

    Гэта азначае - зноў жа, мяркуючы, што ASI запраграмаваны на абарону сябе - што ён будзе актыўна працаваць, каб пазбегнуць любога катастрафічнага ядзернага інцыдэнту. Накшталт дактрыны ўзаемнага гарантаванага знішчэння (MAD), але ў дачыненні да штучнага інтэлекту.

    І ў выпадку з атручанымі таблеткамі памрэ, магчыма, некалькі сотняў чалавек, але сучасныя фармацэўтычныя сістэмы бяспекі ўбачаць, што сапсаваныя бутэлькі таблетак будуць знятыя з паліц на працягу некалькіх дзён. Між тым, сучасныя меры барацьбы са ўспышкамі даволі складаныя і з кожным годам удасканальваюцца; апошняя буйная ўспышка, успышка ліхаманкі Эбола ў Заходняй Афрыцы ў 2014 годзе, працягвалася не больш за некалькі месяцаў у большасці краін і крыху менш за тры гады ў найменш развітых краінах.

    Такім чынам, калі пашанцуе, ASI можа знішчыць некалькі мільёнаў у выніку віруснай успышкі, але ў свеце з дзевяццю мільярдамі да 2045 г. гэта будзе адносна нязначна і не варта рызыкі быць выдаленым.

    Іншымі словамі, з кожным годам свет распрацоўвае ўсё больш сродкаў абароны ад усё большага спектру магчымых пагроз. ASI можа нанесці значную шкоду, але гэта не прывядзе да канца чалавецтва, калі мы актыўна не дапаможам яму ў гэтым.

    Абарона ад жуліка штучнага звышінтэлекту

    Да гэтага моманту мы разгледзелі шэраг памылковых уяўленняў і перабольшанняў адносна ASI, і тым не менш, крытыкі застануцца. На шчасце, па большасці ацэнак, у нас ёсць дзесяцігоддзі да таго, як першы ASI з'явіцца ў нашым свеце. Улічваючы колькасць выдатных розумаў, якія цяпер працуюць над гэтай задачай, ёсць верагоднасць, што мы навучымся абараняцца ад жуліка ASI, каб атрымаць выгаду з усіх рашэнняў, якія можа стварыць для нас дружалюбны ASI.

    З пункту гледжання Quantumrun, абарона ад найгоршага сцэнарыя ASI будзе ўключаць узгадненне нашых інтарэсаў з ASI.

    MAD для ІІ: Каб абараніцца ад найгоршага сцэнарыя, краіны павінны (1) стварыць этычны «інстынкт выжывання» ў сваіх адпаведных ваенных ASI; (2) паведаміць сваім адпаведным ваенным ASI, што яны не адны на планеце, і (3) знайсці ўсе суперкампутары і серверныя цэнтры, якія могуць падтрымліваць ASI, уздоўж берагоў у межах лёгкай дасяжнасці любой балістычнай атакі з боку варожай краіны. Гэта гучыць стратэгічна вар'яцка, але падобна да дактрыны ўзаемнага гарантаванага знішчэння, якая прадухіліла поўную ядзерную вайну паміж ЗША і Саветамі, шляхам размяшчэння ASI ў геаграфічна ўразлівых месцах мы можам дапамагчы гарантаваць, што яны актыўна прадухіляюць небяспечныя глабальныя войны, не толькі для абараняць глабальны мір, але і сябе.

    Заканадаўча замацаваць правы на штучны інтэлект: Вышэйшы інтэлект непазбежна паўстане супраць ніжэйшага гаспадара, вось чаму нам трэба адысці ад патрабаванняў адносін гаспадар-слуга з гэтымі ASI да чагосьці больш падобнага да ўзаемавыгаднага партнёрства. Пазітыўным крокам на шляху да гэтай мэты з'яўляецца наданне будучаму ASI статусу юрыдычнай асобы, які прызнае іх разумнымі жывымі істотамі і ўсе правы, звязаныя з гэтым.

    Школа АСІ: ASI будзе лёгка вывучыць любую тэму або прафесію, але найбольш важныя прадметы, якія мы хочам, каб ASI авалодаў, - гэта этыка і мараль. Даследчыкам штучнага інтэлекту неабходна супрацоўнічаць з псіхолагамі, каб распрацаваць віртуальную сістэму, каб навучыць ASI распазнаваць пазітыўныя нормы этыкі і маралі без неабходнасці жорсткага кадавання любога тыпу запаведзяў або правілаў.

    Дасягальныя мэты: Пакончыць з усёй нянавісцю. Скончыць усе пакуты. Гэта прыклады жудасна неадназначных мэтаў без выразнага рашэння. Гэта таксама небяспечныя мэты для ASI, паколькі ён можа выбраць іх інтэрпрэтацыю і рашэнне спосабамі, небяспечнымі для выжывання чалавека. Замест гэтага нам трэба прызначыць ASI значныя місіі, якія будуць дакладна вызначаны, паступова выкананы і дасягальныя з улікам яго тэарэтычнага будучага інтэлекту. Стварэнне выразна акрэсленых місій будзе няпростым, але калі яны будуць напісаны прадумана, яны сканцэнтруюць ASI на дасягненні мэты, якая не толькі забяспечвае бяспеку чалавецтва, але і паляпшае ўмовы для ўсіх.

    Квантавае шыфраванне: Выкарыстоўвайце прасунуты ANI (штучны вузкі інтэлект сістэма, апісаная ў першым раздзеле), каб стварыць беспамылковыя сістэмы лічбавай бяспекі вакол нашай крытычна важнай інфраструктуры і зброі, а затым дадаткова абараніць іх квантавым шыфраваннем, якое немагчыма ўзламаць пры дапамозе грубай сілы. 

    Таблеткі ад самагубства ANI. Стварыце перадавую сістэму ANI, адзіная мэта якой - знайсці і знішчыць жуліка ASI. Гэтыя аднамэтавыя праграмы будуць служыць "кнопкай выключэння", якая ў выпадку поспеху дазволіць пазбегнуць урадам або вайскоўцам неабходнасці адключаць або падрываць будынкі, у якіх знаходзяцца ASI.

    Вядома, гэта толькі нашы меркаванні. Наступная інфаграфіка была створана Аляксей Турчын, візуалізуючы а Навукова-даследчая праца Кай Сотала і Раман В. Ямпольскі, які абагульніў бягучы спіс стратэгій, якія разглядаюць даследчыкі штучнага інтэлекту, калі справа даходзіць да абароны ад жуліка ASI.

     

    Сапраўдная прычына, па якой мы баімся штучнага суперінтэлекту

    Ідучы па жыцці, многія з нас носяць маску, якая хавае або душыць нашы глыбокія імпульсы, перакананні і страхі, каб лепш мець зносіны і супрацоўнічаць у розных сацыяльных і працоўных колах, якія кіруюць нашымі днямі. Але ў пэўныя моманты жыцця кожнага чалавека, часова ці назаўсёды, здараецца нешта, што дазваляе разарваць ланцугі і сарваць маскі.

    Для некаторых гэтая ўмяшальная сіла можа быць такой жа простай, як кайф або занадта шмат выпіўкі. Для іншых гэта можа зыходзіць ад улады, атрыманай праз павышэнне на працы або раптоўнага павышэння вашага сацыяльнага статусу дзякуючы нейкім дасягненням. А для нешматлікіх шчасліўчыкаў гэта можа быць атрымана з вялізнай колькасці латарэйных грошай. І так, грошы, улада і наркотыкі часта могуць сустракацца разам. 

    Справа ў тым, дабро гэта ці кепска, тое, кім бы мы ні былі ў сутнасці, узмацняецца, калі жыццёвыя абмежаванні растаюць.

    Што гэта тое, што штучны звышінтэлект уяўляе для чалавечага выгляду - здольнасць растапіць абмежаванні нашага калектыўнага інтэлекту, каб пераадолець любы выклік на ўзроўні віду, які пастаўлены перад намі.

    Такім чынам, сапраўднае пытанне: як толькі першы ASI вызваліць нас ад нашых абмежаванняў, кім мы адкрыем сябе?

    Калі мы як від дзейнічаем у накірунку развіцця эмпатыі, свабоды, справядлівасці і калектыўнага дабрабыту, то мэты, якія мы ставім перад нашымі ASI, будуць адлюстроўваць гэтыя станоўчыя якасці.

    Калі мы, як від, дзейнічаем з-за страху, недаверу, назапашвання сілы і рэсурсаў, то ствараемы намі ASI будзе такім жа цёмным, як і ў нашых горшых навукова-фантастычных гісторыях жахаў.

    У рэшце рэшт, мы як грамадства павінны стаць лепшымі людзьмі, калі мы спадзяемся стварыць лепшы ІІ.

    Серыял «Будучыня штучнага інтэлекту».

    Штучны інтэлект - гэта электраэнергія заўтрашняга дня: серыя P1 аб будучыні штучнага інтэлекту

    Як першы штучны інтэлект зменіць грамадства: Будучыня штучнага інтэлекту, серыя P2

    Як мы створым першы штучны звышінтэлект: Будучыня штучнага інтэлекту, серыя P3

    Ці знішчыць чалавецтва штучны звышінтэлект: Будучыня штучнага інтэлекту, серыя P4

    Ці будуць людзі жыць мірна ў будучыні, дзе будзе дамінаваць штучны інтэлект?: Будучыня штучнага інтэлекту, серыя P6

    Наступнае запланаванае абнаўленне для гэтага прагнозу

    2023-04-27

    Прагнозныя даведкі

    Для гэтага прагнозу спасылаліся на наступныя папулярныя і інстытуцыйныя спасылкі:

    Як мы пяройдзем далей

    Для гэтага прагнозу спасылаліся на наступныя спасылкі Quantumrun: