Ще унищожи ли изкуственият суперинтелект човечеството? Бъдещето на изкуствения интелект P4

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ: Quantumrun

Ще унищожи ли изкуственият суперинтелект човечеството? Бъдещето на изкуствения интелект P4

    Има определени изобретения, на които нациите отиват всичко. Това са изобретения, при които всичко зависи от това да си първи и всичко по-малко може да означава стратегическа и смъртна заплаха за оцеляването на нацията.

    Тези определящи историята изобретения не се появяват често, но когато се появят, светът спира и предсказуемото бъдеще става мъгляво.

    Последното подобно изобретение се появява по време на най-лошата Втората световна война. Докато нацистите печелят позиции на всички фронтове в стария свят, в новия свят, по-специално в тайна армейска база извън Лос Аламос, съюзниците усилено работят върху оръжие, което да сложи край на всички оръжия.

    Първоначално проектът беше малък, но след това се разрасна, за да наеме 130,000 23 души от САЩ, Обединеното кралство и Канада, включително много от най-големите мислители в света по онова време. С кодовото име „Проект Манхатън“ и с неограничен бюджет – приблизително 2018 милиарда долара в долари от XNUMX г. – тази армия от човешка изобретателност в крайна сметка успя да създаде първата ядрена бомба. Не след дълго Втората световна война завършва с два атомни удара.

    Тези ядрени оръжия поставиха началото на атомната ера, представиха дълбоко нов източник на енергия и дадоха на човечеството способността да се самоунищожи за минути – нещо, което избягвахме въпреки Студената война.

    Създаването на изкуствен суперинтелект (ASI) е още едно изобретение, определящо историята, чиято сила (както положителна, така и разрушителна) далеч надхвърля ядрената бомба.

    В последната глава от поредицата „Бъдещето на изкуствения интелект“ проучихме какво е ASI и как изследователите планират един ден да създадат такъв. В тази глава ще разгледаме кои организации ръководят изследванията на изкуствения интелект (AI), какво ще иска ASI, след като придобие подобно на човека съзнание, и как може да застраши човечеството, ако бъде управлявано лошо или ако човек попадне под влиянието на не толкова хубави режими.

    Кой работи за изграждането на изкуствен суперинтелект?

    Като се има предвид колко значимо ще бъде създаването на ASI за човешката история и колко значително предимство ще даде на своя създател, не трябва да е изненада да чуем, че много групи косвено работят по този проект.

    (Под индиректно имаме предвид работа върху изследвания на AI, които в крайна сметка ще създадат първите изкуствен общ интелект (AGI), което само по себе си ще доведе до първия ASI скоро след това.)

    Като начало, когато става дума за заглавия, явните лидери в напредналите изследвания на ИИ са водещите технологични фирми в САЩ и Китай. На фронта на САЩ това включва компании като Google, IBM и Microsoft, а в Китай това включва компании като Tencent, Baidu и Alibaba. Но тъй като изследването на AI е сравнително евтино в сравнение с разработването на нещо физическо, като по-добър ядрен реактор, това също е поле, в което могат да се конкурират и по-малки организации, като университети, стартиращи фирми и... сенчести организации (използвайте въображението си на злодеите на Бонд за онзи).

    Но зад кулисите истинският тласък зад изследванията на ИИ идва от правителствата и техните военни. Икономическата и военна награда да бъдеш първият, създал ASI, е твърде голяма (посочена по-долу), за да рискуваш да изостанеш. А опасностите да останем последни са неприемливи, поне за определени режими.

    Като се имат предвид тези фактори, относително ниската цена за изследване на AI, безкрайните комерсиални приложения на усъвършенстван AI и икономическото и военно предимство да бъдеш първи, създал ASI, много изследователи на AI смятат, че създаването на ASI е неизбежно.

    Кога ще създадем изкуствен суперинтелект

    В нашата глава за AGI споменахме как проучване на водещи изследователи на AI вярва, че ще създадем първия AGI оптимистично до 2022 г., реалистично до 2040 г. и песимистично до 2075 г.

    И в нашата последна глава, ние очертахме как създаването на ASI обикновено е резултат от инструктиране на AGI да се самоусъвършенства безкрайно и му даваме ресурсите и свободата да го направи.

    Поради тази причина, докато изобретяването на AGI може да отнеме до няколко десетилетия, създаването на ASI може да отнеме само няколко години повече.

    Тази точка е подобна на концепцията за „изчислителен надвес“, предложена в хартия, написана в съавторство от водещите мислители на ИИ Люк Мюлхаузер и Ник Бостром. По принцип, ако създаването на AGI продължи да изостава от настоящия напредък в изчислителния капацитет, задвижван от закона на Мур, тогава докато изследователите измислят AGI, ще има толкова много евтина изчислителна мощност, че AGI ще има капацитет трябва бързо да скочи до нивото на ASI.

    С други думи, когато най-накрая прочетете заглавията, които съобщават, че някаква технологична компания е изобретила първия истински AGI, очаквайте обявяването на първия ASI не след дълго.

    Вътре в съзнанието на изкуствен суперинтелект?

    Добре, така че установихме, че много големи играчи с дълбоки джобове изследват AI. И тогава, след като първият AGI бъде изобретен, ще видим световни правителства (военни) да дадат зелена светлина на натиска към ASI скоро след това, за да бъдат първите, които ще спечелят глобалната надпревара във въоръжаването с AI (ASI).

    Но след като този ASI бъде създаден, как ще мисли? Какво ще иска?

    Приятелското куче, грижовният слон, сладкият робот – като хора имаме навика да се опитваме да се свързваме с нещата чрез антропологизирането им, т.е. прилагане на човешки характеристики към нещата и животните. Ето защо естественото първо предположение, което хората имат, когато мислят за ASI, е, че след като по някакъв начин придобие съзнание, ще мисли и ще се държи подобно на нас.

    Е, не е задължително.

    Възприятие. От една страна, това, което повечето са склонни да забравят, е, че възприятието е относително. Начините, по които мислим, се формират от нашата среда, от нашия опит и особено от нашата биология. Първо обяснено в глава трета ни Бъдещето на човешката еволюция серия, помислете за примера на нашия мозък:

    Нашият мозък е този, който ни помага да разберем света около нас. И прави това не като се носи над главите ни, оглежда се и ни контролира с Xbox контролер; прави това, като е хванат в капан в кутия (нашите крака) и обработва каквато и да е информация, предоставена от нашите сетивни органи – нашите очи, нос, уши и т.н.

    Но точно както глухите или слепите живеят много по-кратък живот в сравнение с трудоспособните хора, поради ограниченията, които тяхното увреждане налага върху начина, по който могат да възприемат света, същото може да се каже за всички хора поради ограниченията на нашите основни набор от сетивни органи.

    Помислете за това: нашите очи възприемат по-малко от една десет трилиона от всички светлинни вълни. Не можем да видим гама лъчи. Не можем да видим рентгенови лъчи. Не виждаме ултравиолетова светлина. И не ме разбирайте за инфрачервени, микровълнови и радиовълни!

    Шегата настрана, представете си какъв би бил животът ви, как бихте възприемали света, колко различно би могъл да работи умът ви, ако можехте да виждате повече от мъничката светлина, която очите ви позволяват в момента. По същия начин си представете как бихте възприемали света, ако обонянието ви е равно на това на куче или ако слухът ви е равен на този на слон.

    Като хора ние по същество виждаме света през шпионка и това се отразява в умовете, които сме развили, за да осмислим това ограничено възприятие.

    Междувременно първият ASI ще бъде роден в суперкомпютър. Вместо органи, входните данни, до които ще има достъп, включват гигантски масиви от данни, вероятно (вероятно) дори достъп до самия интернет. Изследователите биха могли да му дадат достъп до камерите за видеонаблюдение и микрофоните на цял град, сензорните данни от дронове и сателити и дори физическата форма на тяло или тела на робот.

    Както можете да си представите, ум, роден в суперкомпютър, с директен достъп до интернет, до милиони електронни очи и уши и цял набор от други усъвършенствани сензори, не само ще мисли различно от нас, но и ум, който може да има смисъл от всички тези сензорни входове също трябва да са безкрайно по-добри от нас. Това е ум, който ще бъде напълно чужд на нашия собствен и на всяка друга форма на живот на планетата.

    Целите на. Другото нещо, което хората предполагат, е, че след като ASI достигне някакво ниво на суперинтелигентност, той веднага ще осъзнае желанието да излезе със собствените си цели и цели. Но и това не е непременно вярно.

    Много изследователи на AI вярват, че суперинтелигентността на ASI и неговите цели са „ортогонални“, т.е. независимо от това колко умен става, целите на ASI ще останат същите. 

    Така че независимо дали изкуственият интелект първоначално е създаден, за да проектира по-добра пелена, да увеличи максимално възвръщаемостта на фондовия пазар или да изготви стратегия за побеждаване на враг на бойното поле, след като достигне нивото на ASI, първоначалната цел няма да се промени; това, което ще се промени, е ефективността на ASI за постигане на тези цели.

    Но тук се крие опасността. Ако ASI се оптимизира към конкретна цел, тогава е по-добре да сме дяволски сигурни, че се оптимизира към цел, която е в съответствие с целите на човечеството. В противен случай резултатите могат да бъдат смъртоносни.

    Представлява ли изкуственият суперинтелект екзистенциален риск за човечеството?

    И какво, ако ASI бъде пуснат в света? Ако се оптимизира, за да доминира на фондовия пазар или да осигури военно превъзходство на САЩ, няма ли ASI да се самоограничи в рамките на тези специфични цели?

    Възможно е.

    Досега обсъждахме как ASI ще бъде обсебен от целите, които първоначално са му били възложени, и нечовешки компетентен в преследването на тези цели. Уловката е, че рационалният агент ще преследва целите си по възможно най-ефективния начин, освен ако не му бъде дадена причина да не го прави.

    Например, рационалният агент ще излезе с набор от подцели (т.е. цели, инструментални цели, стъпала), които ще му помогнат по пътя към постигане на крайната му цел. За хората нашата ключова подсъзнателна цел е възпроизвеждането, предаването на вашите гени (т.е. непряко безсмъртие). Подцелите за тази цел често могат да включват:

    • Да оцелееш чрез достъп до храна и вода, да станеш голям и силен, да се научиш да се защитаваш или да инвестираш в различни форми на защита и т.н. 
    • Привличане на партньор чрез тренировка, развиване на ангажираща личност, стилно обличане и т.н.
    • Осигуряване на потомство чрез получаване на образование, получаване на високоплатена работа, закупуване на атрибутите на живота на средната класа и т.н.

    За огромното мнозинство от нас ние ще робуваме на всички тези подцели и много други с надеждата, че в крайна сметка ще постигнем тази крайна цел на възпроизводството.

    Но ако тази крайна цел или дори някоя от по-важните подцели бъде застрашена, много от нас биха предприели защитни действия извън нашите морални зони на комфорт - това включва измама, кражба или дори убийство.

    По същия начин в животинското царство, извън границите на човешкия морал, много животни не биха се замислили дали да убият нещо, което застрашава тях самите или тяхното потомство.

    Бъдещият ASI няма да бъде по-различен.

    Но вместо потомство, ASI ще се фокусира върху първоначалната цел, за която е създаден, и в преследването на тази цел, ако установи, че определена група хора или дори цялото човечество е пречка в преследването на целите му , тогава ... ще вземе рационалното решение.

    (Тук можете да включите всеки сценарий за края на света, свързан с ИИ, за който сте чели в любимата си научнофантастична книга или филм.)

    Това е най-лошият сценарий, за който изследователите на AI наистина се тревожат. ASI няма да действа от омраза или зло, просто от безразличие, точно както строителен екип няма да се замисли дали да разруши с булдозер мравуняк в процеса на изграждане на нова кула с апартамент.

    Странична бележка. В този момент някои от вас може би се чудят: „Не могат ли изследователите на ИИ просто да редактират основните цели на ASI след факта, ако установим, че той действа?“

    Не точно.

    След като ASI узрее, всеки опит за редактиране на първоначалната цел(и) може да се разглежда като заплаха и такава, която ще изисква екстремни действия, за да се защити. Като използваме целия пример за човешка репродукция от по-рано, това е почти като крадец да заплаши да открадне бебе от утробата на бъдеща майка – можете да сте сигурни, че майката ще предприеме крайни мерки, за да защити детето си.

    Отново, тук не говорим за калкулатор, а за „живо“ същество и такова, което един ден ще стане много по-умно от всички хора на планетата взети заедно.

    Незнайният

    Зад баснята на Кутията на Пандора е по-малко известна истина, която хората често забравят: отварянето на кутията е неизбежно, ако не от вас, то от някой друг. Забраненото знание е твърде изкушаващо, за да остане заключено завинаги.

    Ето защо опитите за постигане на глобално споразумение за спиране на всички изследвания на AI, които биха могли да доведат до ASI, са безсмислени - има твърде много организации, работещи по тази технология както официално, така и в сянка.

    В крайна сметка нямаме представа какво ще означава този нов субект, този ASI за обществото, за технологиите, за политиката, мира и войната. Ние, хората, сме на път да изобретим огъня отново и къде ни води това творение е напълно неизвестно.

    Връщайки се към първата глава от тази поредица, единственото нещо, което знаем със сигурност е, че интелигентността е сила. Интелигентността е контрол. Хората могат случайно да посетят най-опасните животни в света в местните зоологически градини не защото сме физически по-силни от тези животни, а защото сме значително по-умни.

    Като се имат предвид потенциалните залози, свързани с ASI, използвайки своя огромен интелект, за да предприеме действия, които могат пряко или непреднамерено да застрашат оцеляването на човешката раса, ние дължим на себе си поне да се опитаме да проектираме предпазни мерки, които ще позволят на хората да останат в зоната на водача седалка—това е темата на следващата глава.

    Поредица Бъдещето на изкуствения интелект

    P1: Изкуственият интелект е електричеството на утрешния ден

    P2: Как първият изкуствен общ интелект ще промени обществото

    P3: Как ще създадем първия изкуствен суперинтелект

    P5: Как хората ще се защитят срещу изкуствен суперинтелект

    P6: Ще живеят ли хората мирно в бъдеще, доминирано от изкуствен интелект?

    Следваща планирана актуализация за тази прогноза

    2025-09-25

    Справки за прогнози

    Следните популярни и институционални връзки бяха посочени за тази прогноза:

    Как да стигнем до следващия

    Следните връзки на Quantumrun бяха посочени за тази прогноза: