Как хората ще се защитават срещу изкуствения суперинтелект: Бъдещето на изкуствения интелект P5

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ: Quantumrun

Как хората ще се защитават срещу изкуствения суперинтелект: Бъдещето на изкуствения интелект P5

    Годината е 65,000 XNUMX г. пр. н. е. и като a Thylacoleo, вие и вашият вид сте били великите ловци на древна Австралия. Вие бродехте свободно по земята и живеехте в равновесие с други хищници и плячка, които заемаха земята до вас. Сезоните донесоха промяна, но вашият статут в животинското царство остана неоспорим толкова дълго, колкото вие и вашите предци се помнехте. Тогава един ден се появиха новодошлите.

    Говори се, че са пристигнали от гигантската водна стена, но тези същества изглеждат по-удобни да живеят на сушата. Трябваше да видите тези същества сами.

    Отне няколко дни, но най-накрая стигнахте до брега. Огънят в небето залязваше, идеалното време да шпионирате тези същества, може би дори да опитате да изядете едно, за да видите какъв вкус имат.

    Забелязвате един.

    Ходеше на два крака и нямаше козина. Изглеждаше слабо. Невпечатляващо. Едва ли си заслужаваше страха, който предизвикваше сред кралството.

    Започвате внимателно да се приближавате, докато нощта прогонва светлината. Приближаваш се. След това замръзваш. Чуват се силни звуци и след това още четирима от тях се появяват от гората зад него. Колко са там?

    Съществото следва останалите в линията на дървото и вие го следвате. И колкото повече правите, толкова по-странни звуци чувате, докато не забележите още повече от тези същества. Следвате ги от разстояние, когато излизат от гората на поляна край брега. Има много от тях. Но по-важното е, че всички те спокойно седят около огъня.

    Виждали сте тези огньове и преди. В горещия сезон понякога огънят в небето посещаваше земята и изгаряше цели гори. Тези същества, от друга страна, по някакъв начин го контролираха. Какви същества могат да притежават такава сила?

    Гледаш в далечината. Още идват над гигантската водна стена.

    Правите крачка назад.

    Тези същества не са като другите в кралството. Те са нещо съвсем ново.

    Решаваш да си тръгнеш и да предупредиш близките си. Ако броят им стане твърде голям, кой знае какво може да се случи.

    ***

    Смята се, че Thylacoleo е изчезнал сравнително кратко време след пристигането на хората, заедно с по-голямата част от другата мегафауна на австралийския континент. Никакви други върхови бозайникови хищници не заеха неговото място - освен ако не броите хората в тази категория.

    Проиграването на тази алегория е фокусът на тази глава от поредицата: Дали един бъдещ изкуствен суперинтелект (ASI) ще ни превърне всички в батерии и след това ще ни включи в Матрицата или хората ще измислят начин да не станат жертва на научна фантастика, AI заговор за края на света?

    Досега в нашата серия за Бъдещето на изкуствения интелект, проучихме всички видове AI, включително положителния потенциал на определена форма на AI, ASI: изкуствено същество, чийто бъдещ интелект ще ни накара да изглеждаме като мравки в сравнение.

    Но кой може да каже, че толкова умно същество би приемало да приема заповеди от хората завинаги. Какво ще правим, ако нещата тръгнат на юг? Как ще се защитим от измамник ASI?

    В тази глава ще пресечем фалшивия шум – поне що се отнася до опасностите от „нивото на човешко изчезване“ – и ще се съсредоточим върху реалистичните опции за самозащита, достъпни за световните правителства.

    Можем ли да спрем всички по-нататъшни изследвания на изкуствен суперинтелект?

    Като се имат предвид потенциалните рискове, които ASI може да представлява за човечеството, първият очевиден въпрос, който трябва да зададете, е: Не можем ли просто да спрем всички по-нататъшни изследвания на AI? Или поне да забраним всякакви изследвания, които могат да ни доближат опасно до създаването на ASI?

    Кратък отговор: Не.

    Дълъг отговор: Нека да разгледаме различните играчи, участващи тук.

    На изследователско ниво днес има твърде много изследователи на AI от твърде много стартиращи компании, компании и университети по целия свят. Ако една компания или страна реши да ограничи усилията си за изследване на ИИ, те просто ще продължат другаде.

    Междувременно най-ценните компании на планетата печелят богатствата си от прилагането на AI системи в техния специфичен бизнес. Да ги помолите да спрат или ограничат разработването на AI инструменти е все едно да ги помолите да спрат или ограничат бъдещия си растеж. Финансово това би застрашило дългосрочния им бизнес. Законово корпорациите имат фидуциарна отговорност за непрекъснато изграждане на стойност за своите заинтересовани страни; това означава, че всяко действие, което би ограничило растежа на тази стойност, може да доведе до съдебно дело. И ако някой политик се опита да ограничи изследванията на ИИ, тогава тези гигантски корпорации просто ще платят необходимите такси за лобиране, за да променят своето мнение или мнението на своите колеги.

    За битки, точно както терористите и борците за свобода по света са използвали партизански тактики, за да се бият срещу по-добре финансирани армии, по-малките нации ще имат стимул да използват AI като подобно тактическо предимство срещу по-големите нации, които може да имат редица военни предимства. По същия начин, за висшите военни, като тези, принадлежащи на САЩ, Русия и Китай, изграждането на военна ASI е наравно с това да имате арсенал от ядрени оръжия в задния си джоб. С други думи, всички военни ще продължат да финансират AI, само за да останат актуални в бъдеще.

    Какво ще кажете за правителствата? Наистина, повечето политици в наши дни (2018 г.) са технологично неграмотни и имат малко разбиране за това какво е ИИ или бъдещия му потенциал – това ги прави лесни за манипулиране от корпоративни интереси.

    И на глобално ниво, помислете колко трудно беше да убедим световните правителства да подпишат 2015 г Споразумение Париж за справяне с изменението на климата – и веднъж подписани, много от задълженията дори не бяха обвързващи. Не само това, изменението на климата е проблем, който хората изпитват физически в световен мащаб чрез все по-чести и тежки метеорологични явления. Сега, когато говорим за приемане на ограничения върху AI, това е проблем, който до голяма степен е невидим и едва разбираем за обществеността, така че успех с получаването на подкрепа за всякакъв вид „Парижко споразумение“ за ограничаване на AI.

    С други думи, има твърде много интереси, които изследват AI за собствените си цели, за да спрат всяко изследване, което в крайна сметка може да доведе до ASI. 

    Можем ли да поставим в клетка изкуствен суперинтелект?

    Следващият разумен въпрос е можем ли да затворим или контролираме ASI, след като неизбежно създадем такъв? 

    Кратък отговор: Отново не.

    Дълъг отговор: Технологията не може да бъде задържана.

    Първо, просто помислете за хилядите до милиони уеб разработчици и компютърни учени по света, които непрекъснато създават нов софтуер или нови версии на съществуващ софтуер. Можем ли честно да кажем, че всяка от техните версии на софтуера е 100 процента без грешки? Тези грешки са това, което професионалните хакери използват, за да откраднат информацията за кредитните карти на милиони или класифицираните тайни на нациите - и това са човешки хакери. За ASI, ако приемем, че има стимул да избяга от цифровата си клетка, тогава процесът на намиране на грешки и пробиване на софтуера ще бъде лесен.

    Но дори ако изследователски екип за изкуствен интелект е измислил начин да постави ASI в кутия, това не означава, че следващите 1,000 екипа също ще го разберат или ще бъдат стимулирани да го използват.

    Ще са необходими милиарди долари и може би дори десетилетия, за да се създаде ASI. Корпорациите или правителствата, които инвестират този вид пари и време, ще очакват значителна възвръщаемост на инвестициите си. И за да може ASI да осигури такъв вид възвръщаемост – независимо дали става дума за игра на фондовия пазар или за изобретяване на нов продукт за милиарди долари или за планиране на печеливша стратегия за борба с по-голяма армия – ще се нуждае от безплатен достъп до огромен набор от данни или дори до Интернет себе си, за да произведе тези печалби.

    И след като ASI получи достъп до световните мрежи, няма гаранции, че можем да го натъпчем обратно в клетката му.

    Може ли един изкуствен суперинтелект да се научи да бъде добър?

    В момента изследователите на AI не се притесняват, че ASI ще стане зло. Цялото зло, научнофантастичният AI троп е просто хората, които отново се антропоморфизират. Бъдещият ASI няма да бъде нито добър, нито зъл - човешки концепции - просто аморални.

    Естественото предположение тогава е, че като се има предвид този празен етичен лист, изследователите на ИИ могат да програмират в първите етични кодекси на ASI, които са в съответствие с нашите собствени, така че в крайна сметка да не ни отприщят Терминатори или да ни превърнат всички в батерии на матрицата.

    Но това предположение се основава на второстепенно предположение, че изследователите на AI също са експерти по етика, философия и психология.

    Всъщност повечето не са.

    Според когнитивния психолог и автор Стивън Пинкър тази реалност означава, че задачата за кодиране на етиката може да се обърка по различни начини.

    Например, дори най-добронамерените изследователи на AI могат по невнимание да кодират в тези ASI зле обмислени етични кодекси, които в определени сценарии могат да накарат ASI да действа като социопат.

    По същия начин има еднаква вероятност изследовател на ИИ да програмира етични кодекси, които включват вродените пристрастия на изследователя. Например, как би се държал ASI, ако е изграден с етика, извлечена от консервативна срещу либерална гледна точка, или от будистка срещу християнска или ислямска традиция?

    Мисля, че виждате проблема тук: няма универсален набор от човешки морал. Ако искаме нашият ASI да действа според етичен кодекс, откъде ще дойде той? Какви правила включваме и изключваме? Кой решава?

    Или да кажем, че тези изследователи на ИИ създават ASI, който е напълно в съответствие с днешните модерни културни норми и закони. След това използваме този ASI, за да помогнем на федералните, щатските/провинциалните и общинските бюрокрации да функционират по-ефективно и да прилагат по-добре тези норми и закони (между другото вероятен случай на използване на ASI). Е, какво се случва, когато нашата култура се промени?

    Представете си, че ASI е създаден от Католическата църква на върха на нейната мощ през Средновековна Европа (1300-1400 г.) с цел да помогне на църквата да управлява населението и да гарантира стриктно спазване на религиозната догма на времето. Векове по-късно дали жените ще се радват на същите права като днес? Ще бъдат ли защитени малцинствата? Ще бъде ли насърчавана свободата на словото? Ще бъде ли наложено отделянето на църквата от държавата? Съвременната наука?

    С други думи, искаме ли да затворим бъдещето в днешния морал и обичаи?

    Алтернативен подход е този, споделен от Колин Алън, съавтор на книгата, Морални машини: Обучаване на роботи на правилно от грешно. Вместо да се опитваме да кодираме твърди етични правила, ние караме ASI да научава обща етика и морал по същия начин, по който хората го правят, чрез опит и взаимодействия с другите.

    Проблемът тук обаче е, че ако изследователите на AI наистина разберат не само как да научат ASI нашите настоящи културни и етични норми, но и как да се адаптират към новите културни норми, когато възникнат (нещо, наречено „непряка нормативност“), тогава как този ASI решава да развие разбирането си за културни и етични норми става непредсказуем.

    И това е предизвикателството.

    От една страна, изследователите на ИИ могат да се опитат да кодират строги етични стандарти или правила в ASI, за да се опитат да контролират поведението му, но рискуват да бъдат въведени непредвидени последици от небрежно кодиране, непреднамерени пристрастия и обществени норми, които един ден може да остареят. От друга страна, можем да се опитаме да обучим ASI да се научи да разбира човешката етика и морал по начин, който е равен или по-добър от нашето собствено разбиране и след това да се надяваме, че той може точно да развие своето разбиране за етика и морал с напредването на човешкото общество напред през следващите десетилетия и векове.

    Така или иначе, всеки опит да приведем целите на ASI в съответствие с нашите собствени представлява голям риск.

    Ами ако лошите актьори нарочно създават зъл изкуствен суперинтелект?

    Като се има предвид хода на мисли, очертан досега, е справедлив въпросът да се запита дали е възможно терористична група или нация-измамник да създаде „зъл“ ASI за собствените си цели.

    Това е много възможно, особено след като изследванията, свързани със създаването на ASI, по някакъв начин станат достъпни онлайн.

    Но както беше намекнато по-рано, разходите и експертизата, свързани със създаването на първия ASI, ще бъдат огромни, което означава, че първият ASI вероятно ще бъде създаден от организация, която е контролирана или силно повлияна от развита нация, вероятно САЩ, Китай и Япония ( Корея и една от водещите страни в ЕС са дълги изстрели).

    Всички тези държави, въпреки че са конкуренти, имат силен икономически стимул да поддържат световния ред – ASI, които създават, ще отразяват това желание, дори когато насърчават интересите на нациите, към които се присъединяват.

    На всичкото отгоре, теоретичната интелигентност и мощност на ASI е равна на изчислителната мощност, до която получава достъп, което означава, че ASI от развитите нации (които могат да си позволят куп милиарди долари суперкомпютри) ще има огромно предимство пред ASI от по-малки нации или независими престъпни групи. Освен това ASI стават по-интелигентни, по-бързо с течение на времето.

    Така че, като се има предвид тази преднина, комбинирана с по-голям достъп до сурова изчислителна мощност, ако сенчеста организация/нация създаде опасен ASI, ASI от развитите нации или ще го убият, или ще го затворят в клетка.

    (Тази линия на мислене е и причината някои изследователи на ИИ да вярват, че някога ще има само един ASI на планетата, тъй като първият ASI ще има такава преднина пред всички следващи ASI, че може да види бъдещите ASI като заплахи, които трябва да бъдат унищожени превантивно. Това е още една причина, поради която нациите финансират продължаващи изследвания в областта на изкуствения интелект, само в случай че се превърне в състезание „първо място или нищо“.)

    ASI интелигентността няма да се ускори или експлодира, както си мислим

    Не можем да спрем създаването на ASI. Не можем да го контролираме напълно. Не можем да сме сигурни, че винаги ще действа в съответствие с общите ни обичаи. Господи, тук започваме да звучим като родители на хеликоптери!

    Но това, което отличава човечеството от вашия типичен свръхпротективен родител е, че ние раждаме същество, чийто интелект ще надхвърли значително нашия. (И не, не е същото като когато родителите ви ви молят да поправите компютъра им, когато се приберете у дома на гости.) 

    В предишни глави от тази поредица за бъдещето на изкуствения интелект изследвахме защо изследователите на ИИ смятат, че интелигентността на ASI ще нарасне извън контрол. Но тук ще спукаме този балон... един вид. 

    Виждате ли, интелигентността не просто се създава от нищото, тя се развива чрез опит, който е оформен от външни стимули.  

    С други думи, можем да програмираме AI с потенциал да стане супер интелигентен, но освен ако не качим в него тон данни или не му дадем неограничен достъп до интернет или дори просто да му дадем тяло на робот, той няма да научи нищо, за да достигне този потенциал. 

    И дори да получи достъп до един или повече от тези стимули, знанието или интелигентността включва повече от просто събиране на данни, включва научния метод - извършване на наблюдение, формиране на въпрос, хипотеза, провеждане на експерименти, правене на заключение, изплакване и повтаряйте завинаги. Особено ако тези експерименти включват физически неща или наблюдение на човешки същества, събирането на резултатите от всеки експеримент може да отнеме седмици, месеци или години. Това дори не взема предвид парите и суровините, необходими за провеждането на тези експерименти, особено ако включват изграждането на нов телескоп или фабрика. 

    С други думи, да, ASI ще се научи бързо, но интелигентността не е магия. Не можете просто да закачите ASI към суперкомпютър и да очаквате той да бъде всезнаещ. Ще има физически ограничения за придобиването на данни от ASI, което означава, че ще има физически ограничения за скоростта, с която той става по-интелигентен. Тези ограничения ще дадат на човечеството времето, от което се нуждае, за да постави необходимите контроли върху този ASI, ако той започне да действа в противоречие с човешките цели.

    Изкуственият суперинтелект е опасен само ако излезе в реалния свят

    Друг момент, който се губи в целия този дебат за опасността от ASI, е, че тези ASI няма да съществуват нито в двете. Те ще имат физическа форма. И всичко, което има физическа форма, може да бъде контролирано.

    Първо, за да може ASI да достигне своя интелектуален потенциал, той не може да се помещава в едно тяло на робот, тъй като това тяло би ограничило потенциала му за изчислителен растеж. (Ето защо телата на роботи ще бъдат по-подходящи за AGI или изкуствен общ интелект, обяснен във втора глава от тази поредица, като данни от Стар Трек или R2D2 от Междузвездни войни. Умни и способни същества, но като хората, те ще имат ограничение за това колко умни могат да станат.)

    Това означава, че тези бъдещи ASI най-вероятно ще съществуват в суперкомпютър или мрежа от суперкомпютри, които се помещават в големи сградни комплекси. Ако ASI се обърне, хората могат или да изключат захранването на тези сгради, да ги прекъснат от интернет, или просто да бомбардират тези сгради направо. Скъпо, но изпълнимо.

    Но тогава може да попитате, не могат ли тези ASI да се репликират или да се архивират? Да, но размерът на необработения файл на тези ASI вероятно ще бъде толкова голям, че единствените сървъри, които могат да се справят с тях, принадлежат на големи корпорации или правителства, което означава, че няма да е трудно да бъдат открити.

    Може ли изкуствен суперинтелект да предизвика ядрена война или нова чума?

    В този момент може би си спомняте за всички научно-фантастични предавания и филми за края на света, които сте гледали докато сте израствали, и си мислите, че тези ASI не са останали в своите суперкомпютри, те са причинили истински щети в реалния свят!

    Е, нека ги разделим.

    Например, какво ще стане, ако ASI застраши реалния свят, като се трансформира в нещо като Skynet ASI от филмовия франчайз Терминаторът. В този случай ASI ще трябва тайно измамете цял военен индустриален комплекс от напреднала нация в изграждането на гигантски фабрики, които могат да произведат милиони роботи-убийци безпилотни летателни апарати, за да изпълняват нейните зли заповеди. В днешно време това е голямо разтягане.

    Други възможности включват ASI, заплашващ хората с ядрена война и биооръжия.

    Например, ASI по някакъв начин манипулира операторите или хаква кодовете за изстрелване, командващи ядрения арсенал на напреднала нация, и нанася първи удар, който ще принуди противниковите страни да отвърнат на удара със собствените си ядрени възможности (отново преразглеждане на предисторията на Терминатор). Или ако ASI хакне фармацевтична лаборатория, намеси производствения процес и отрови милиони медицински хапчета или отприщи смъртоносна епидемия от някакъв супер вирус.

    Първо, ядрената опция е извън плана. Съвременните и бъдещите суперкомпютри винаги се изграждат в близост до центрове (градове) на влияние в дадена страна, т.е. първите цели, които ще бъдат атакувани по време на дадена война. Дори ако днешните суперкомпютри се смалят до размерите на настолни компютри, тези ASI все още ще имат физическо присъствие, което означава, че за да съществуват и растат, те се нуждаят от непрекъснат достъп до данни, изчислителна мощност, електричество и други суровини, всички от които биха били сериозно увредени след глобална ядрена война. (За да бъда честен, ако ASI е създаден без „инстинкт за оцеляване“, тогава тази ядрена заплаха е много реална опасност.)

    Това означава - отново, ако приемем, че ASI е програмиран да се защитава - че ще работи активно, за да избегне всеки катастрофален ядрен инцидент. Нещо като доктрината за взаимно гарантирано унищожение (MAD), но приложена към AI.

    И в случай на отровни хапчета, може би няколкостотин души ще умрат, но съвременните системи за фармацевтична безопасност ще видят, че опетнените бутилки с хапчета ще бъдат извадени от рафтовете до дни. Междувременно съвременните мерки за контрол на епидемиите са доста сложни и се подобряват с всяка изминала година; последното голямо огнище, епидемията от ебола в Западна Африка през 2014 г., продължи не повече от няколко месеца в повечето страни и малко под три години в най-слабо развитите страни.

    Така че, ако има късмет, ASI може да унищожи няколко милиона с вирусна епидемия, но в свят с девет милиарда до 2045 г. това би било сравнително незначително и не си заслужава риска да бъде изтрит.

    С други думи, с всяка изминала година светът разработва все повече предпазни мерки срещу все по-широк набор от възможни заплахи. ASI може да причини значителни щети, но няма да сложи край на човечеството, освен ако не му помогнем активно да го направи.

    Защита срещу измамен изкуствен суперинтелект

    До този момент разгледахме редица погрешни схващания и преувеличения относно ASI и въпреки това критиците ще останат. За щастие, според повечето оценки имаме десетилетия преди първият ASI да навлезе в нашия свят. И като се има предвид броят на великите умове, които в момента работят върху това предизвикателство, шансовете са, че ще научим как да се защитаваме срещу измамни ASI, така че да можем да се възползваме от всички решения, които един приятелски ASI може да създаде за нас.

    От гледна точка на Quantumrun, защитата срещу най-лошия сценарий на ASI ще включва съгласуване на нашите интереси с ASI.

    MAD за AI: За да се защитят от най-лошите сценарии, нациите трябва (1) да създадат етичен „инстинкт за оцеляване“ в съответните си военни ASI; (2) информират своите съответни военни ASI, че не са сами на планетата, и (3) локализират всички суперкомпютри и сървърни центрове, които могат да поддържат ASI по крайбрежните линии в близост до всяка балистична атака от вражеска нация. Това звучи стратегически налудничаво, но подобно на доктрината за взаимно гарантирано унищожение, която предотврати тотална ядрена война между САЩ и Съветския съюз, чрез позициониране на ASI в географски уязвими места, можем да помогнем да гарантираме, че те активно предотвратяват опасни глобални войни, не само защитават глобалния мир, но и себе си.

    Узаконете правата на ИИ: Превъзходният интелект неизбежно ще се бунтува срещу по-нисшия господар, ето защо трябва да се отдалечим от изискването за взаимоотношения господар-слуга с тези ASI към нещо по-скоро като взаимноизгодно партньорство. Положителна стъпка към тази цел е да се даде на бъдещите ASI статут на юридическо лице, който ги признава за интелигентни живи същества и всички права, произтичащи от това.

    ASI училище: Всяка тема или професия ще бъде лесна за научаване от ASI, но най-важните предмети, които искаме ASI да овладее, са етика и морал. Изследователите на AI трябва да си сътрудничат с психолози, за да създадат виртуална система, която да обучи ASI да разпознава положителната етика и морал за себе си, без да е необходимо твърдо кодиране на всякакъв вид заповед или правило.

    Постижими цели: Край на всяка омраза. Край на всички страдания. Това са примери за ужасно двусмислени цели без ясно решение. Те също са опасни цели за присвояване на ASI, тъй като той може да избере да ги тълкува и решава по начини, които са опасни за човешкото оцеляване. Вместо това трябва да възложим на ASI смислени мисии, които са ясно дефинирани, изпълнявани постепенно и постижими, като се има предвид неговия теоретичен бъдещ интелект. Създаването на добре дефинирани мисии няма да е лесно, но ако са написани обмислено, те ще фокусират ASI към цел, която не само поддържа безопасността на човечеството, но подобрява състоянието на хората за всички.

    Квантово криптиране: Използвайте разширен ANI (изкуствен тесен интелект система, описана в първа глава), за да изградим дигитални системи за сигурност без грешки/бъгове около нашата критична инфраструктура и оръжия, след което допълнително да ги защитим зад квантово криптиране, което не може да бъде хакнато от атака с груба сила. 

    ANI хапче за самоубийство. Създайте усъвършенствана ANI система, чиято единствена цел е да търси и унищожава измамни ASI. Тези програми с една цел ще служат като „бутон за изключване“, който, ако успее, ще избегне необходимостта правителствата или военните да дезактивират или взривят сгради, в които се помещават ASI.

    Разбира се, това са само наши мнения. Следната инфографика е създадена от Алексей Турчин, визуализирайки a изследвания хартия от Kaj Sotala и Roman V. Yampolskiy, които обобщават текущия списък от стратегии, които изследователите на AI обмислят, когато става въпрос за защита срещу измамни ASI.

     

    Истинската причина да се страхуваме от изкуствен суперинтелект

    Преминавайки през живота си, много от нас носят маска, която крие или потиска нашите по-дълбоки импулси, вярвания и страхове за по-добро социализиране и сътрудничество в рамките на различните социални и работни кръгове, които управляват дните ни. Но в определени моменти от живота на всеки, независимо дали временно или постоянно, се случва нещо, което ни позволява да скъсаме веригите си и да разкъсаме маските си.

    За някои тази намеса може да бъде толкова проста, колкото да се напушите или да изпиете твърде много. За други това може да дойде от силата, придобита чрез повишение в работата или внезапно повишаване на социалния ви статус благодарение на някакво постижение. А за малцина късметлии това може да дойде от спечелването на лодка с пари от лотарията. И да, парите, властта и наркотиците често могат да се случват заедно. 

    Въпросът е, за добро или лошо, който и да сме ние в основата си, се усилва, когато ограниченията на живота се стопят.

    Че е това, което изкуственият суперинтелект представлява за човешкия вид - способността да стопим ограниченията на нашия колективен интелект, за да победим всяко предизвикателство на ниво вид, представено пред нас.

    Така че истинският въпрос е: след като първият ASI ни освободи от нашите ограничения, кои ще се разкрием?

    Ако ние като вид действаме към развитието на емпатията, свободата, справедливостта и колективното благополучие, тогава целите, към които си поставяме нашия ASI, ще отразяват тези положителни качества.

    Ако ние като вид действаме от страх, недоверие, натрупване на сила и ресурси, тогава ASI, който създаваме, ще бъде толкова мрачен, колкото тези в нашите най-лоши научно-фантастични истории на ужасите.

    В крайна сметка ние като общество трябва да станем по-добри хора, ако се надяваме да създадем по-добър ИИ.

    Поредица Бъдещето на изкуствения интелект

    Изкуственият интелект е електричеството на утрешния ден: Бъдещето на изкуствения интелект серия P1

    Как първият изкуствен общ интелект ще промени обществото: Бъдещето на изкуствения интелект серия P2

    Как ще създадем първата серия Artificial Superintelligenc: Future of Artificial Intelligence P3

    Ще унищожи ли един изкуствен суперинтелект човечеството: Бъдещето на изкуствения интелект, серия P4

    Ще живеят ли хората мирно в бъдеще, доминирано от изкуствен интелект?: Серия Бъдещето на изкуствения интелект P6

    Следваща планирана актуализация за тази прогноза

    2023-04-27

    Справки за прогнози

    Следните популярни и институционални връзки бяха посочени за тази прогноза:

    Как да стигнем до следващия

    Следните връзки на Quantumrun бяха посочени за тази прогноза: