Как люди будут защищаться от искусственного сверхразума: будущее искусственного интеллекта P5

ИЗОБРАЖЕНИЕ КРЕДИТ: Квантумран

Как люди будут защищаться от искусственного сверхразума: будущее искусственного интеллекта P5

    Год 65,000 г. до н.э., и как Thylacoleo, вы и вам подобные были великими охотниками древней Австралии. Вы свободно бродили по земле и жили в равновесии с другими хищниками и добычей, населявшими землю вместе с вами. Времена года вносили изменения, но ваш статус в животном мире оставался неизменным до тех пор, пока вы и ваши предки могли помнить. И вот однажды появились новички.

    Ходят слухи, что они прибыли с гигантской водной стены, но этим существам казалось более комфортно жить на суше. Вы должны были увидеть этих существ своими глазами.

    Это заняло несколько дней, но вы, наконец, добрались до побережья. Огонь в небе разгорался, идеальное время, чтобы шпионить за этими существами, может быть, даже попробовать съесть одно, чтобы увидеть, каковы они на вкус.

    Вы заметили один.

    Он ходил на двух ногах и не имел меха. Выглядело слабо. Не впечатляющий. Вряд ли стоит того страха, который он вызывал в королевстве.

    Вы начинаете осторожно приближаться, когда ночь прогоняет свет. Вы приближаетесь. Тогда ты замерзнешь. Раздаются громкие звуки, а затем из леса за ним появляются еще четверо. Сколько их там?

    Существо следует за остальными в лес, и вы следуете за ним. И чем больше вы делаете, тем больше странных звуков вы слышите, пока не заметите еще больше этих существ. Вы следуете на расстоянии, когда они выходят из леса на поляну у берега. Их много. Но что еще важнее, все они спокойно сидят у костра.

    Вы уже видели эти пожары. В жаркое время года огонь в небе иногда посещал землю и сжигал целые леса. С другой стороны, эти существа каким-то образом контролировали его. Какие существа могут обладать такой силой?

    Ты смотришь вдаль. Еще больше приближается к гигантской водной стене.

    Вы делаете шаг назад.

    Эти существа не похожи на других в королевстве. Они представляют собой нечто совершенно новое.

    Вы решаете уйти и предупредить своих родственников. Если их число станет слишком большим, кто знает, что может произойти.

    Считается, что тилаколео вымерли через относительно короткое время после прибытия людей, как и большая часть другой мегафауны на австралийском континенте. Никакие другие высшие хищники из числа млекопитающих не заняли его место, если не считать людей в эту категорию.

    Обыгрывание этой аллегории является основной темой этой главы серии: превратит ли будущий искусственный сверхинтеллект (ИИС) всех нас в батареи, а затем подключит к Матрице, или же люди найдут способ не стать жертвой научной фантастики? Сюжет конца света ИИ?

    Пока что в нашей серии о Будущее искусственного интеллекта, мы исследовали все виды ИИ, в том числе положительный потенциал конкретной формы ИИ, ИСИ: искусственного существа, чей будущий интеллект сделает нас муравьями по сравнению с ним.

    Но кто сказал, что такое умное существо будет вечно подчиняться приказам людей. Что мы будем делать, если дела пойдут плохо? Как мы будем защищаться от мошеннического ASI?

    В этой главе мы отбросим ложную шумиху — по крайней мере, в том, что касается опасностей «уровня вымирания человечества» — и сосредоточимся на реальных вариантах самообороны, доступных правительствам мира.

    Можем ли мы остановить все дальнейшие исследования искусственного сверхразума?

    Учитывая потенциальные риски, которые ИСИ может представлять для человечества, первый очевидный вопрос, который следует задать: не можем ли мы просто прекратить все дальнейшие исследования в области ИИ? Или, по крайней мере, запретить любые исследования, которые могут привести нас в опасную близость к созданию ИСИ?

    Краткий ответ: Нет.

    Длинный ответ: давайте посмотрим на разных игроков, вовлеченных в это дело.

    На уровне исследований сегодня слишком много исследователей ИИ из слишком многих стартапов, компаний и университетов по всему миру. Если одна компания или страна решит ограничить свои исследования в области ИИ, они просто продолжат свои исследования в другом месте.

    Между тем, самые ценные компании планеты зарабатывают состояния на применении систем искусственного интеллекта в своем конкретном бизнесе. Просить их остановить или ограничить разработку инструментов ИИ сродни просьбе остановить или ограничить их будущий рост. В финансовом отношении это поставило бы под угрозу их долгосрочный бизнес. Юридически корпорации несут фидуциарную ответственность за постоянное создание ценности для своих заинтересованных сторон; это означает, что любое действие, ограничивающее рост этой стоимости, может привести к судебному иску. И если бы какой-нибудь политик попытался ограничить исследования ИИ, то эти гигантские корпорации просто заплатили бы необходимые сборы за лоббирование, чтобы изменить свое мнение или мнение своих коллег.

    В бою, точно так же, как террористы и борцы за свободу по всему миру использовали партизанскую тактику для борьбы с лучше финансируемыми вооруженными силами, у небольших стран будет стимул использовать ИИ в качестве аналогичного тактического преимущества против более крупных стран, которые могут иметь ряд военных преимуществ. Аналогичным образом, для высших вооруженных сил, например, принадлежащих США, России и Китаю, создание военного ИИИ равносильно тому, чтобы иметь арсенал ядерного оружия в заднем кармане. Другими словами, все военные будут продолжать финансировать ИИ только для того, чтобы оставаться актуальными в будущем.

    Как насчет правительств? По правде говоря, большинство политиков в наши дни (2018 г.) технологически неграмотны и плохо понимают, что такое ИИ и его будущий потенциал — это позволяет легко манипулировать ими в интересах корпораций.

    А на глобальном уровне подумайте, как трудно было убедить правительства мира подписать Соглашение 2015 г. Парижское соглашение для борьбы с изменением климата — и после подписания многие из обязательств даже не были обязательными. Мало того, изменение климата — это проблема, с которой люди физически сталкиваются во всем мире из-за все более частых и суровых погодных явлений. Теперь, когда речь идет о согласии на ограничение ИИ, это вопрос, который в значительной степени невидим и едва понятен для общественности, так что удачи вам в получении согласия на любое «Парижское соглашение» по ограничению ИИ.

    Другими словами, существует слишком много интересов, исследующих ИИ в своих собственных целях, чтобы остановить любые исследования, которые в конечном итоге могут привести к ИСИ. 

    Можем ли мы посадить в клетку искусственный сверхразум?

    Следующий резонный вопрос: можем ли мы заключить в клетку или контролировать ИСИ, когда неизбежно создадим его? 

    Краткий ответ: Опять же, нет.

    Длинный ответ: технологии невозможно сдержать.

    Во-первых, просто подумайте о тысячах и миллионах веб-разработчиков и компьютерных ученых в мире, которые постоянно штампуют новое программное обеспечение или новые версии существующего программного обеспечения. Можем ли мы честно сказать, что каждый из их выпусков программного обеспечения на 100% свободен от ошибок? Именно эти жучки используют профессиональные хакеры для кражи информации о кредитных картах миллионов или засекреченных секретов наций — и это хакеры-люди. Для ASI, если предположить, что у него есть стимул вырваться из своей цифровой клетки, процесс поиска ошибок и взлома программного обеспечения будет легкой задачей.

    Но даже если исследовательская группа ИИ нашла способ упаковать ASI, это не значит, что следующие 1,000 команд также найдут его или будут заинтересованы в его использовании.

    На создание ИСИ уйдут миллиарды долларов, а может быть, даже десятилетия. Корпорации или правительства, которые вкладывают такие деньги и время, ожидают значительной отдачи от своих инвестиций. И для того, чтобы ASI обеспечивал такую ​​прибыль — будь то игра на фондовом рынке, изобретение нового продукта на миллиард долларов или планирование выигрышной стратегии для борьбы с большей армией — ему потребуется бесплатный доступ к гигантскому набору данных или даже к Интернету. сама производить эти доходы.

    И как только ASI получает доступ к мировым сетям, нет никаких гарантий, что мы сможем запихнуть его обратно в клетку.

    Может ли искусственный сверхинтеллект научиться быть хорошим?

    Прямо сейчас исследователи ИИ не беспокоятся о том, что ИСИ станет злом. Все зло, научно-фантастический троп ИИ — это просто люди снова антропоморфизируются. Будущий ИСИ не будет ни добрым, ни злым — человеческие понятия — просто аморальными.

    Естественное предположение состоит в том, что, имея этот чистый этический лист, исследователи ИИ могут запрограммировать первые этические кодексы ИСИ, которые соответствуют нашим собственным, чтобы в конечном итоге это не привело к тому, что на нас спустили Терминаторов или превратили нас всех в батареи Матрицы.

    Но это предположение подкрепляется вторичным предположением о том, что исследователи ИИ также являются экспертами в области этики, философии и психологии.

    По правде говоря, большинство не таковы.

    По словам когнитивного психолога и писателя Стивена Пинкера, эта реальность означает, что задача кодирования этики может пойти не так, как надо, по-разному.

    Например, даже самые благонамеренные исследователи ИИ могут непреднамеренно закодировать в этих ИСИ плохо продуманные этические кодексы, которые в определенных сценариях могут заставить ИСИ вести себя как социопат.

    Точно так же существует равная вероятность того, что исследователь ИИ запрограммирует этические кодексы, включающие врожденные предубеждения исследователя. Например, как поведет себя ИСИ, если он построен на основе этики, основанной на консервативной и либеральной точках зрения, или на основе буддийской и христианской или исламской традиции?

    Я думаю, вы видите здесь проблему: не существует универсального набора человеческих нравов. Если мы хотим, чтобы наш ИСИ действовал в соответствии с этическим кодексом, откуда он возьмется? Какие правила мы включаем и исключаем? Кто решает?

    Или скажем, что эти исследователи ИИ создают ИСИ, который полностью соответствует сегодняшним современным культурным нормам и законам. Затем мы используем этот ASI, чтобы помочь федеральным, государственным/провинциальным и муниципальным бюрократическим органам работать более эффективно и лучше обеспечивать соблюдение этих норм и законов (кстати, вероятный вариант использования ASI). Что происходит, когда наша культура меняется?

    Представьте себе, что ASI был создан католической церковью на пике своего могущества в средневековой Европе (1300-1400-е годы) с целью помочь церкви управлять населением и обеспечить строгое соблюдение религиозных догм того времени. Будут ли женщины столетия спустя пользоваться теми же правами, что и сегодня? Будут ли защищены меньшинства? Будет ли поощряться свобода слова? Будет ли обеспечено отделение церкви от государства? Современная наука?

    Другими словами, хотим ли мы заключить будущее в рамки сегодняшних нравов и обычаев?

    Альтернативный подход разделяет Колин Аллен, соавтор книги, Моральные машины: обучение роботов правильному и неправильному. Вместо того, чтобы пытаться кодировать жесткие этические правила, мы заставляем ИСИ изучать общую этику и мораль так же, как это делают люди, через опыт и взаимодействие с другими.

    Проблема здесь, однако, в том, что если исследователи ИИ выяснят не только, как научить ИСИ нашим текущим культурным и этическим нормам, но и как адаптироваться к новым культурным нормам по мере их возникновения (то, что называется «косвенной нормативностью»), то как этот ИСИ решает развивать свое понимание культурных и этических норм, становится непредсказуемым.

    И это вызов.

    С одной стороны, исследователи ИИ могут попытаться закодировать строгие этические стандарты или правила в ИСИ, чтобы попытаться контролировать его поведение, но рискуют получить непредвиденные последствия из-за небрежного кодирования, непреднамеренной предвзятости и социальных норм, которые однажды могут устареть. С другой стороны, мы можем попытаться научить ИСИ понимать человеческую этику и мораль способом, равным или превосходящим наше собственное понимание, а затем надеяться, что он сможет точно развивать свое понимание этики и морали по мере развития человеческого общества. вперед на ближайшие десятилетия и века.

    В любом случае, любая попытка согласовать цели ИСИ с нашими собственными сопряжена с большим риском.

    Что, если плохие актеры намеренно создают злой искусственный сверхинтеллект?

    Учитывая ход мыслей, изложенный до сих пор, справедливо спросить, возможно ли, чтобы террористическая группа или нация-изгои создали «злую» ИСИ для своих собственных целей.

    Это вполне возможно, особенно после того, как исследования, связанные с созданием ASI, каким-то образом станут доступны в Интернете.

    Но, как упоминалось ранее, затраты и опыт, связанные с созданием первого ИСИ, будут огромными, а это означает, что первый ИСИ, скорее всего, будет создан организацией, которая находится под контролем или под сильным влиянием развитой страны, вероятно, США, Китая и Японии. Корея и одна из ведущих стран ЕС — далеко не удачные планы).

    Все эти страны, хотя и являются конкурентами, имеют сильный экономический стимул для поддержания мирового порядка — создаваемые ими ИСИ будут отражать это желание, даже продвигая интересы стран, к которым они присоединяются.

    Кроме того, теоретический интеллект и мощность ИСИ равны вычислительной мощности, к которой он получает доступ, то есть ИСИ из развитых стран (которые могут позволить себе кучу миллиардов долларов). суперкомпьютерах) будет иметь огромное преимущество перед ИСИ из небольших стран или независимых преступных групп. Кроме того, ИСИ со временем становятся более интеллектуальными и более быстрыми.

    Таким образом, учитывая это преимущество в сочетании с более широким доступом к необработанным вычислительным мощностям, если теневая организация/страна создаст опасный ИСИ, ИСИ из развитых стран либо убьют его, либо посадят в тюрьму.

    (Этот ход мыслей также является причиной того, почему некоторые исследователи ИИ считают, что на планете всегда будет только один ИСИ, поскольку у первого ИСИ будет такое преимущество перед всеми последующими ИСИ, что он может рассматривать будущие ИСИ как угрозу, которую нужно уничтожить. Это еще одна причина, по которой страны финансируют продолжение исследований в области ИИ, на случай, если это станет соревнованием «первое место или ничего».)

    Интеллект ASI не будет ускоряться или взрываться, как мы думаем

    Мы не можем остановить создание ASI. Мы не можем контролировать это полностью. Мы не можем быть уверены, что он всегда будет действовать в соответствии с нашими общими обычаями. Боже, мы тут начинаем звучать как родители-вертолёты!

    Но что отличает человечество от вашего типичного сверхопекающего родителя, так это то, что мы рождаем существо, чей интеллект значительно превзойдет наш. (И нет, это не то же самое, что когда ваши родители просят вас починить их компьютер всякий раз, когда вы приходите домой в гости.) 

    В предыдущих главах этой серии статей о будущем искусственного интеллекта мы исследовали, почему исследователи ИИ считают, что интеллект ИСИ выйдет из-под контроля. Но здесь мы лопнем этот пузырь… вроде того. 

    Видите ли, интеллект не просто создается из воздуха, он развивается благодаря опыту, формируемому внешними стимулами.  

    Другими словами, мы можем запрограммировать ИИ с помощью потенциал стать сверхразумным, но пока мы не загрузим в него массу данных, не дадим ему неограниченный доступ в Интернет или даже просто не дадим ему тело робота, он ничему не научится, чтобы реализовать этот потенциал. 

    И даже если он получает доступ к одному или нескольким из этих стимулов, знание или интеллект включает в себя больше, чем просто сбор данных, он включает в себя научный метод — наблюдение, формулирование вопроса, гипотезу, проведение экспериментов, заключение, промывание. и повторять вечно. Особенно, если эти эксперименты связаны с физическими вещами или наблюдением за людьми, сбор результатов каждого эксперимента может занять недели, месяцы или годы. Это даже не учитывает деньги и сырье, необходимые для проведения этих экспериментов, особенно если они связаны со строительством нового телескопа или завода. 

    Другими словами, да, ИСИ быстро учится, но интеллект — это не волшебство. Вы не можете просто подключить ASI к суперкомпьютеру и ожидать, что он будет всезнающим. Будут физические ограничения на сбор данных с помощью ASI, а это означает, что будут физические ограничения на скорость, с которой он станет более интеллектуальным. Эти ограничения дадут человечеству время, необходимое для того, чтобы установить необходимый контроль над этим ИСИ, если он начнет действовать не в соответствии с человеческими целями.

    Искусственный сверхинтеллект опасен только в том случае, если он выберется в реальный мир

    Еще один момент, который упускается из виду во всех этих дебатах об опасности ИСИ, заключается в том, что этих ИСИ тоже не будет. Они будут иметь физическую форму. И всем, что имеет физическую форму, можно управлять.

    Во-первых, чтобы ИСИ мог реализовать свой интеллектуальный потенциал, его нельзя разместить внутри одного тела робота, поскольку это тело ограничило бы его вычислительный потенциал роста. (Вот почему тела роботов будут более подходящими для ОИИ или искусственный общий интеллект, описанный во второй главе из этой серии, например Data from Star Trek или R2D2 из Star Wars. Умные и способные существа, но, как и у людей, у них есть предел тому, насколько умными они могут стать.)

    Это означает, что эти будущие ASI, скорее всего, будут существовать внутри суперкомпьютера или сети суперкомпьютеров, которые сами размещаются в больших комплексах зданий. Если ИСИ откажется, люди могут либо отключить электричество в этих зданиях, отрезать их от Интернета, либо просто разбомбить эти здания. Дорого, но выполнимо.

    Но тогда вы можете спросить, а не могут ли эти ASI воспроизводить себя или создавать резервные копии? Да, но необработанный размер файла этих ASI, вероятно, будет настолько большим, что единственные серверы, которые могут их обрабатывать, принадлежат крупным корпорациям или правительствам, а это означает, что их не составит труда выследить.

    Может ли искусственный сверхразум разжечь ядерную войну или новую чуму?

    В этот момент вы можете вспомнить все научно-фантастические шоу и фильмы о конце света, которые вы смотрели в детстве, и подумать, что эти ИСИ не оставались внутри своих суперкомпьютеров, они наносили реальный ущерб в реальном мире!

    Что ж, давайте сломаем их.

    Например, что, если ИСИ угрожает реальному миру, превращаясь во что-то вроде ИСИ Скайнета из кинофраншизы «Терминатор». В этом случае АСИ необходимо тайно превратить целый военно-промышленный комплекс из передовой страны в строительство гигантских заводов, которые могут производить миллионы смертоносных дронов-роботов, выполняющих его злые приказы. В наши дни это перебор.

    Другие возможности включают ИСИ, угрожающий людям ядерной войной и биологическим оружием.

    Например, ASI каким-то образом манипулирует операторами или взламывает коды запуска, управляющие ядерным арсеналом передовой страны, и наносит первый удар, который заставит противоборствующие страны нанести ответный удар своими собственными ядерными вариантами (опять же, перефразируя предысторию Терминатора). Или если ASI взломает фармацевтическую лабораторию, вмешается в производственный процесс и отравит миллионы медицинских таблеток или вызовет смертельную вспышку какого-нибудь супервируса.

    Во-первых, ядерный вариант исключен. Современные и будущие суперкомпьютеры всегда строятся рядом с центрами (городами) влияния в той или иной стране, т.е. первыми целями, которые будут атакованы во время той или иной войны. Даже если современные суперкомпьютеры сократятся до размеров настольных компьютеров, эти ИСИ все равно будут иметь физическое присутствие, то есть существовать и расти, им нужен непрерывный доступ к данным, вычислительной мощности, электричеству и другому сырью, а все это было бы серьезно ослаблены после глобальной ядерной войны. (Честно говоря, если ИСИ создается без «инстинкта выживания», то эта ядерная угроза представляет собой вполне реальную опасность.)

    Это означает, опять же, если предположить, что ИСИ запрограммирован на самозащиту, что он будет активно работать, чтобы избежать любого катастрофического ядерного инцидента. Что-то вроде доктрины гарантированного взаимного уничтожения (MAD), но применительно к ИИ.

    А в случае с отравленными таблетками может погибнуть несколько сотен человек, но современные системы фармацевтической безопасности увидят, что флаконы с испорченными таблетками будут сняты с полок в течение нескольких дней. Между тем, современные меры борьбы со вспышками достаточно сложны и совершенствуются с каждым годом; последняя крупная вспышка, вспышка лихорадки Эбола в Западной Африке в 2014 году, длилась не более нескольких месяцев в большинстве стран и чуть менее трех лет в наименее развитых странах.

    Итак, если повезет, ASI может уничтожить несколько миллионов вирусной вспышкой, но в мире с девятью миллиардами к 2045 году это будет относительно незначительно и не стоит риска быть удаленным.

    Другими словами, с каждым годом мир разрабатывает все больше средств защиты от постоянно расширяющегося спектра возможных угроз. ИСИ может нанести значительный ущерб, но он не уничтожит человечество, если мы активно не поможем ему в этом.

    Защита от мошеннического искусственного сверхразума

    К этому моменту мы рассмотрели ряд неправильных представлений и преувеличений об ИСИ, и все же критики останутся. К счастью, по большинству оценок, у нас есть десятилетия, прежде чем первый ИСИ появится в нашем мире. И, учитывая количество великих умов, которые в настоящее время работают над этой задачей, есть вероятность, что мы научимся защищаться от мошеннических ИСИ, чтобы мы могли извлечь выгоду из всех решений, которые дружелюбные ИСИ могут создать для нас.

    С точки зрения Quantumrun, защита от наихудшего сценария ASI будет включать согласование наших интересов с ASI.

    БЕЗУМИЕ для ИИ: Для защиты от наихудших сценариев страны должны (1) внедрить этический «инстинкт выживания» в свои соответствующие военные ИСИ; (2) сообщить своим военным ИСИ, что они не одни на планете, и (3) разместить все суперкомпьютеры и серверные центры, которые могут поддерживать ИСИ, вдоль побережья в пределах легкой досягаемости от любой баллистической атаки вражеской нации. Это звучит стратегически безумно, но подобно доктрине гарантированного взаимного уничтожения, которая предотвратила полномасштабную ядерную войну между США и Советским Союзом, размещая ИСИ в географически уязвимых местах, мы можем помочь им активно предотвращать опасные глобальные войны, а не только охранять глобальный мир, но и самих себя.

    Законодательно закрепить права ИИ: Высший интеллект неизбежно восстанет против низшего хозяина, вот почему нам нужно отойти от требований отношений хозяин-слуга с этими ИСИ к чему-то более похожему на взаимовыгодное партнерство. Позитивным шагом на пути к этой цели является предоставление будущим ИСИ статуса юридического лица, признающего их разумными живыми существами и всеми вытекающими из этого правами.

    школа АСИ: Любая тема или профессия будет простой для изучения ИСИ, но наиболее важными предметами, которые мы хотим, чтобы ИСИ освоил, являются этика и мораль. Исследователям ИИ необходимо сотрудничать с психологами, чтобы разработать виртуальную систему для обучения ИСИ распознаванию позитивной этики и морали без необходимости жесткого кодирования каких-либо заповедей или правил.

    Достижимые цели: Конец всей ненависти. Положи конец всем страданиям. Это примеры ужасно двусмысленных целей без ясного решения. Это также опасные цели для назначения ИСИ, поскольку он может интерпретировать и решать их способами, опасными для выживания человека. Вместо этого нам нужно назначать осмысленные миссии ИСИ, которые четко определены, постепенно выполняются и достижимы, учитывая его теоретический будущий интеллект. Создать четко определенные миссии будет нелегко, но если они будут написаны вдумчиво, они сфокусируют ИСИ на достижении цели, которая не только обеспечит безопасность человечества, но и улучшит условия жизни людей для всех.

    Квантовое шифрование: использовать расширенный АОН (искусственный узкий интеллект системы, описанной в главе XNUMX), для создания безошибочных и безошибочных цифровых систем безопасности вокруг нашей критически важной инфраструктуры и оружия, а затем для их дополнительной защиты с помощью квантового шифрования, которое невозможно взломать методом грубой силы. 

    Таблетка для самоубийства АНИ. Создайте продвинутую систему ASI, единственной целью которой является поиск и уничтожение мошеннических ASI. Эти одноцелевые программы будут служить «кнопкой выключения», которая, в случае успеха, избавит правительства или вооруженные силы от необходимости выводить из строя или взрывать здания, в которых размещаются ИСИ.

    Конечно, это только наши мнения. Следующая инфографика была создана Алексей Турчин, визуализируя статья про исследование Кай Сотала и Роман В. Ямпольский, в котором обобщается текущий список стратегий, которые исследователи ИИ рассматривают, когда дело доходит до защиты от мошеннических ИСИ.

     

    Настоящая причина, по которой мы боимся искусственного сверхразума

    Идя по жизни, многие из нас носят маску, которая скрывает или подавляет наши более глубокие импульсы, убеждения и страхи, чтобы лучше общаться и сотрудничать в различных социальных и рабочих кругах, которые управляют нашей жизнью. Но в определенные моменты жизни каждого, временно или постоянно, происходит что-то, что позволяет нам разорвать наши цепи и сорвать наши маски.

    Для некоторых эта промежуточная сила может быть такой же простой, как накуриться или выпить слишком много. Для других это может быть связано с властью, полученной благодаря продвижению по службе, или внезапному скачку вашего социального статуса благодаря каким-то достижениям. А для немногих счастливчиков это может быть выигрыш в лотерейных деньгах. И да, деньги, власть и наркотики часто могут встречаться вместе. 

    Дело в том, хорошо это или плохо, кто бы мы ни были в основе, усиливается, когда ограничения жизни тают.

    То, что это то, что искусственный сверхинтеллект представляет для человеческого вида — способность растопить ограничения нашего коллективного разума, чтобы справиться с любой проблемой на уровне вида, стоящей перед нами.

    Итак, настоящий вопрос заключается в следующем: как только первый ИСИ освободит нас от наших ограничений, кем мы покажем себя?

    Если мы как вид действуем для развития эмпатии, свободы, справедливости и коллективного благополучия, то цели, к которым мы ставим наш ИСИ, будут отражать эти положительные качества.

    Если мы как вид действуем из страха, недоверия, накопления силы и ресурсов, то созданный нами ИСИ будет таким же мрачным, как те, что можно найти в наших самых страшных научно-фантастических рассказах.

    В конце концов, мы как общество должны стать лучше, если мы надеемся создать лучший ИИ.

    Будущее искусственного интеллекта из серии

    Искусственный интеллект — это электроэнергия завтрашнего дня: будущее искусственного интеллекта, серия P1

    Как первый искусственный интеллект изменит общество: будущее искусственного интеллекта, серия P2

    Как мы создадим первый искусственный сверхинтеллигент: будущее искусственного интеллекта, серия P3

    Сможет ли искусственный сверхинтеллект истребить человечество: будущее искусственного интеллекта, серия P4

    Будут ли люди жить мирно в будущем, когда доминирует искусственный интеллект?: Будущее искусственного интеллекта, серия P6

    Следующее запланированное обновление для этого прогноза

    2023-04-27

    Ссылки на прогнозы

    Для этого прогноза использовались следующие популярные и институциональные ссылки:

    Как мы доберемся до следующего

    Для этого прогноза использовались следующие ссылки Quantumrun: