Як люди захищатимуться від штучного суперінтелекту: майбутнє штучного інтелекту P5

КРЕДИТ ЗОБРАЖЕННЯ: Quantumrun

Як люди захищатимуться від штучного суперінтелекту: майбутнє штучного інтелекту P5

    Рік 65,000 XNUMX до н.е., і як a Тилаколео, ти і твій рід були великими мисливцями стародавньої Австралії. Ви вільно бродили по землі та жили в рівновазі з іншими хижаками та здобиччю, які займали землю поруч із вами. Пори року приносили зміни, але ваш статус у тваринному світі залишався незмінним, скільки ви і ваші предки себе пам’ятали. І ось одного дня з’явилися новачки.

    Подейкують, що вони прибули з гігантської водяної стіни, але цим створінням здавалося комфортніше жити на суші. Ви повинні були побачити цих істот на власні очі.

    Це зайняло кілька днів, але ви нарешті дісталися до узбережжя. Вогонь у небі спалахував, ідеальний час, щоб поспостерігати за цими створіннями, можливо, навіть спробувати з’їсти одну, щоб побачити, яка вона на смак.

    Ви помітили один.

    Він ходив на двох лапах і не мав хутра. Виглядало слабко. Не вражає. Навряд чи варто того страху, який це викликало серед королівства.

    Ви починаєте обережно наближатися, коли ніч проганяє світло. Ти стаєш ближче. Тоді ти завмер. Лунають гучні звуки, а потім із лісу позаду з’являється ще четверо. Скільки там?

    Істота слідує за іншими до лінії дерев, а ви слідуєте за нею. І чим більше ви робите, тим більше дивних звуків ви чуєте, поки не помітите ще більше цих істот. Ви стежите за ними на відстані, коли вони виходять з лісу на галявину біля берега. Їх багато. Але важливіше те, що всі вони спокійно сидять біля вогнища.

    Ви вже бачили ці пожежі. У спекотну пору року небесний вогонь часом навідувався на землю і спалив цілі ліси. Ці істоти, з іншого боку, вони якимось чином це контролювали. Які істоти можуть володіти такою силою?

    Дивишся вдалину. Більше надходить через гігантську водяну стіну.

    Ви робите крок назад.

    Ці істоти не схожі на інших у королівстві. Вони є чимось абсолютно новим.

    Ви вирішили піти і попередити своїх родичів. Якщо їх кількість стане занадто великою, хто знає, що може статися.

    ***

    Вважається, що Thylacoleo вимер відносно невдовзі після приходу людей разом із більшістю іншої мегафауни на австралійському континенті. Жоден інший верхівковий хижак ссавців не зайняв його місце, якщо не вважати людей у ​​цій категорії.

    Розігрування цієї алегорії є темою цієї глави серіалу: чи майбутній штучний суперінтелект (ASI) перетворить нас усіх на батарейки, а потім підключить до Матриці, чи люди знайдуть спосіб уникнути того, щоб стати жертвою наукової фантастики, Сюжет кінця світу ШІ?

    Поки що в нашій серії про Майбутнє штучного інтелекту, ми дослідили всі види штучного інтелекту, включно з позитивним потенціалом певної форми штучного інтелекту, ASI: штучної істоти, чий майбутній інтелект зробить нас схожими на мурах у порівнянні.

    Але хто скаже, що така розумна істота вічно погоджуватиметься виконувати накази від людей. Що ми будемо робити, якщо справи підуть на південь? Як ми захистимося від шахрайського ASI?

    У цьому розділі ми розірвемо фальшивий галас — принаймні, що стосується небезпеки «рівня зникнення людства» — і зосередимося на реалістичних варіантах самозахисту, доступних світовим урядам.

    Чи можемо ми припинити всі подальші дослідження штучного суперінтелекту?

    Враховуючи потенційні ризики, які ASI може становити для людства, перше очевидне запитання, яке слід поставити: чи не можемо ми просто припинити всі подальші дослідження ШІ? Або принаймні заборонити будь-які дослідження, які можуть наблизити нас до створення ASI?

    Коротка відповідь: Ні.

    Довга відповідь: давайте подивимося на різних гравців, які тут задіяні.

    На дослідницькому рівні сьогодні надто багато дослідників штучного інтелекту з багатьох стартапів, компаній та університетів у всьому світі. Якби одна компанія чи країна вирішила обмежити свої зусилля з дослідження ШІ, вони просто продовжили б в іншому місці.

    Тим часом найдорожчі компанії планети заробляють свої статки на застосуванні систем штучного інтелекту у своїх конкретних бізнесах. Просити їх зупинити або обмежити розробку інструментів штучного інтелекту — це все одно, що просити зупинити або обмежити свій майбутній розвиток. У фінансовому плані це загрожує їхньому довгостроковому бізнесу. Юридично корпорації несуть фідуціарну відповідальність за постійне створення цінності для своїх зацікавлених сторін; це означає, що будь-які дії, які обмежують зростання цієї вартості, можуть призвести до судового позову. І якби будь-який політик спробував обмежити дослідження штучного інтелекту, тоді ці гігантські корпорації просто заплатили б необхідні гонорари за лобіювання, щоб змінити свою думку або думку своїх колег.

    У бойових діях, подібно до того, як терористи та борці за свободу в усьому світі використовували партизанську тактику для боротьби з краще фінансованими арміями, менші країни матимуть стимул використовувати штучний інтелект як аналогічну тактичну перевагу проти великих держав, які можуть мати низку військових переваг. Подібним чином, для високопоставлених військових, як-от тих, що належать до США, Росії та Китаю, створення військової ASI – це те ж саме, що мати арсенал ядерної зброї у задній кишені. Іншими словами, усі військові продовжуватимуть фінансувати ШІ, щоб залишатися актуальними в майбутньому.

    Як щодо урядів? По правді кажучи, більшість політиків сьогодні (2018) є технологічно неграмотними і погано розуміють, що таке штучний інтелект або його майбутній потенціал — через це ними легко маніпулювати з боку корпоративних інтересів.

    А на глобальному рівні подумайте, як важко було переконати світові уряди підписати 2015 рік Париж угоду боротися зі зміною клімату, і після підписання багато зобов’язань навіть не були обов’язковими. Мало того, зміна клімату є проблемою, яку люди фізично відчувають у всьому світі через дедалі частіші та суворі погодні явища. Тепер, коли говорити про згоду на обмеження ШІ, це проблема, яка здебільшого невидима та ледь зрозуміла для громадськості, тож бажаємо вам успіхів у підтримці будь-якої «Паризької угоди» щодо обмеження ШІ.

    Іншими словами, надто багато зацікавлених у дослідженні штучного інтелекту для власних цілей, щоб припинити будь-які дослідження, які в кінцевому підсумку можуть призвести до ASI. 

    Чи можемо ми посадити в клітку штучний суперінтелект?

    Наступне розумне запитання: чи можемо ми замкнути або контролювати ASI, коли ми неминуче його створимо? 

    Коротка відповідь: знову ні.

    Довга відповідь: технологію неможливо стримати.

    По-перше, просто подумайте про тисячі чи мільйони веб-розробників і комп’ютерників у світі, які постійно створюють нове програмне забезпечення або нові версії існуючого програмного забезпечення. Чи можемо ми чесно сказати, що в кожному випуску програмного забезпечення на 100 відсотків немає помилок? Ці помилки використовують професійні хакери, щоб викрасти інформацію про кредитні картки мільйонів або секретні секрети націй, і це люди-хакери. Для ASI, якщо припустити, що у нього є стимул вирватися з цифрової клітки, процес пошуку помилок і проникнення в програмне забезпечення буде легким.

    Але навіть якщо дослідницька група штучного інтелекту знайшла спосіб створити ASI в коробці, це не означає, що наступні 1,000 команд також зрозуміють це чи отримають стимул використовувати його.

    На створення ASI знадобляться мільярди доларів і, можливо, навіть десятиліття. Корпорації чи уряди, які інвестують такі гроші та час, очікують значного повернення своїх інвестицій. І для того, щоб ASI забезпечив таку віддачу — чи то для гри на фондовому ринку, чи для винаходу нового продукту на мільярд доларів, чи для планування виграшної стратегії для боротьби з більшою армією — йому потрібен вільний доступ до гігантського набору даних або навіть Інтернету сама для отримання цих прибутків.

    І як тільки ASI отримує доступ до світових мереж, немає жодних гарантій, що ми зможемо запхати його назад у клітку.

    Чи може штучний суперінтелект навчитися бути хорошим?

    Наразі дослідники ШІ не хвилюються, що ASI стане злом. Вся зла науково-фантастична тропа штучного інтелекту полягає в тому, що люди знову антропоморфізуються. Майбутній ASI не буде ні добрим, ні злим — людські поняття — просто аморальними.

    Отже, природне припущення полягає в тому, що, враховуючи цей чистий етичний аркуш, дослідники штучного інтелекту можуть запрограмувати перші етичні кодекси ASI, які відповідають нашим власним, щоб це не призвело до того, що на нас випустять Термінаторів або перетворить нас усіх на батареї Матриці.

    Але це припущення ґрунтується на вторинному припущенні про те, що дослідники ШІ також є експертами з етики, філософії та психології.

    По правді кажучи, більшість ні.

    За словами когнітивного психолога та автора Стівена Пінкера, ця реальність означає, що завдання кодування етики може піти не так різними способами.

    Наприклад, навіть дослідники штучного інтелекту з найкращими намірами можуть ненавмисно закодувати в цих ASI погано продумані етичні кодекси, які за певних сценаріїв можуть змусити ASI діяти як соціопат.

    Подібним чином існує однакова ймовірність того, що дослідник ШІ програмує етичні кодекси, які включають вроджені упередження дослідника. Наприклад, як би поводився ASI, якщо б він створювався з етикою, що випливає з консервативної проти ліберальної точки зору, або з буддистської проти християнської чи ісламської традиції?

    Я думаю, ви бачите проблему тут: не існує універсального набору людської моралі. Якщо ми хочемо, щоб наш ASI діяв згідно з етичним кодексом, звідки він візьметься? Які правила ми включаємо та виключаємо? Хто вирішує?

    Або, скажімо, ці дослідники ШІ створюють ASI, який ідеально відповідає сучасним культурним нормам і законам. Потім ми використовуємо цей ASI, щоб допомогти федеральним, державним/провінційним і муніципальним бюрократичним структурам функціонувати ефективніше та краще застосовувати ці норми та закони (до речі, ймовірний варіант використання ASI). Ну, а що відбувається, коли наша культура змінюється?

    Уявіть, що ASI був створений католицькою церквою на піку своєї могутності в середньовічній Європі (1300-1400-ті роки) з метою допомогти церкві керувати населенням і забезпечити суворе дотримання релігійних догм того часу. Чи мали б жінки через століття такі ж права, як сьогодні? Чи будуть захищені меншини? Чи сприятиме свобода слова? Чи буде проведено відокремлення церкви від держави? Сучасна наука?

    Іншими словами, чи хочемо ми ув'язнити майбутнє сьогоднішньою мораллю та звичаями?

    Альтернативний підхід поділяє Колін Аллен, співавтор книги, Моральні машини: Навчання роботів правильному від неправильного. Замість того, щоб намагатися закодувати жорсткі етичні правила, ми змушені ASI вивчати загальну етику та мораль так само, як це роблять люди, через досвід і взаємодію з іншими.

    Однак проблема полягає в тому, що якщо дослідники штучного інтелекту справді з’ясовують, як навчити ASI нашим поточним культурним і етичним нормам, а й як адаптуватися до нових культурних норм, коли вони виникають (те, що називається «непряма нормативність»), то як цей ASI вирішує розвинути своє розуміння культурних і етичних норм, стає непередбачуваним.

    І це виклик.

    З одного боку, дослідники штучного інтелекту можуть спробувати закодувати суворі етичні стандарти або правила в ASI, щоб спробувати контролювати його поведінку, але ризикують отримати непередбачені наслідки через неохайне кодування, ненавмисне упередження та суспільні норми, які одного дня можуть застаріти. З іншого боку, ми можемо спробувати навчити ASI розуміти людську етику та мораль у спосіб, який дорівнює або перевершує наше власне розуміння, а потім сподіватися, що він зможе точно розвинути своє розуміння етики та моралі в міру розвитку людського суспільства. вперед протягом наступних десятиліть і століть.

    У будь-якому випадку будь-яка спроба узгодити цілі ASI з нашими власними представляє великий ризик.

    Що, якщо погані актори навмисно створять злий штучний суперінтелект?

    Враховуючи хід думок, викладених досі, було б справедливим запитання, чи можливо для терористичної групи чи країни-ізгоя створити «злий» ASI для власних цілей.

    Це дуже можливо, особливо після того, як дослідження, пов’язані зі створенням ASI, якимось чином стають доступними в Інтернеті.

    Але, як натякалося раніше, витрати та досвід, задіяні у створенні першого ASI, будуть величезними, тобто перший ASI, ймовірно, буде створено організацією, яка контролюється або знаходиться під сильним впливом розвиненої країни, ймовірно, США, Китаю та Японії ( Корея та одна з провідних країн ЄС – далеко).

    Усі ці країни, будучи конкурентами, мають сильний економічний стимул підтримувати світовий порядок — ASI, які вони створюють, відображатимуть це бажання, навіть просуваючи інтереси націй, з якими вони об’єднані.

    Крім того, теоретичний інтелект і потужність ASI дорівнює обчислювальній потужності, до якої він отримує доступ, тобто ASI з розвинених країн (які можуть дозволити собі купу мільярдів доларів). суперкомп'ютери) матиме величезну перевагу над ASI з менших країн або незалежних злочинних груп. Крім того, ASI з часом стають розумнішими швидше.

    Отже, враховуючи цю перевагу в поєднанні з більшим доступом до необробленої обчислювальної потужності, якщо тіньова організація/держава створить небезпечну ASI, ASI з розвинених країн або вб’ють її, або посадять у клітку.

    (Ця лінія думок є також причиною того, чому деякі дослідники штучного інтелекту вважають, що на планеті буде лише один ASI, оскільки перший ASI матиме таку перевагу над усіма наступними ASI, що він може розглядати майбутні ASI як загрозу, яку потрібно знищити Це ще одна причина, чому країни фінансують продовження досліджень штучного інтелекту на випадок, якщо воно стане змаганням «перше місце або нічого».)

    Інтелект ASI не прискориться чи вибухне, як ми думаємо

    Ми не можемо зупинити створення ASI. Ми не можемо це повністю контролювати. Ми не можемо бути впевнені, що він завжди діятиме відповідно до наших спільних звичаїв. Боже, ми тут починаємо нагадувати батьків гелікоптера!

    Але те, що відрізняє людство від типового надмірно опікуючого батька, полягає в тому, що ми народжуємо істоту, інтелект якої значно перевершить наш. (І ні, це не те саме, що коли ваші батьки просять вас полагодити їхній комп’ютер, коли ви приходите додому в гості.) 

    У попередніх розділах цієї серії про майбутнє штучного інтелекту ми досліджували, чому дослідники штучного інтелекту вважають, що інтелект ASI зростатиме безконтрольно. Але тут ми лопнемо цю бульбашку... начебто. 

    Розумієте, інтелект не просто створюється з повітря, він розвивається завдяки досвіду, сформованому зовнішніми подразниками.  

    Іншими словами, ми можемо запрограмувати ШІ за допомогою потенціал щоб стати надрозумним, але якщо ми не завантажимо в нього масу даних, не надамо йому необмежений доступ до Інтернету або навіть не дамо йому тіло робота, він нічого не навчиться, щоб досягти цього потенціалу. 

    І навіть якщо він отримує доступ до одного або кількох із цих стимулів, знання чи інтелект передбачають більше, ніж просто збір даних, вони включають науковий метод — спостереження, формування запитання, гіпотези, проведення експериментів, висновок, промивання. і повторювати вічно. Особливо якщо ці експерименти включають фізичні речі або спостереження за людьми, для збору результатів кожного експерименту можуть знадобитися тижні, місяці або роки. Це навіть не враховує гроші та сировинні ресурси, необхідні для проведення цих експериментів, особливо якщо вони передбачають будівництво нового телескопа чи фабрики. 

    Іншими словами, так, ASI швидко навчатиметься, але інтелект – це не магія. Ви не можете просто підключити ASI до суперкомп’ютера, сподіваючись, що він буде всезнаючим. Існуватимуть фізичні обмеження для отримання даних ASI, тобто будуть фізичні обмеження щодо швидкості, з якою він стає розумнішим. Ці обмеження дадуть людству час, потрібний для встановлення необхідного контролю над цим ASI, якщо він почне діяти всупереч людським цілям.

    Штучний суперінтелект небезпечний лише тоді, коли він потрапляє в реальний світ

    Інший момент, який втрачений у всій цій дискусії про небезпеку ASI, полягає в тому, що ці ASI не існуватимуть ні в одному. Вони матимуть фізичну форму. І все, що має фізичну форму, можна контролювати.

    По-перше, щоб ASI досяг свого потенціалу інтелекту, його не можна розмістити в одному корпусі робота, оскільки це тіло обмежить його потенціал зростання обчислювальної техніки. (Ось чому тіла роботів будуть більш доречними для AGI або штучний загальний інтелект, пояснений у другому розділі цієї серії, наприклад Дані із Зоряного шляху або R2D2 із Зоряних війн. Розумні та здібні істоти, але, як і люди, у них є межа того, наскільки розумними вони можуть стати.)

    Це означає, що ці майбутні ASI, швидше за все, існуватимуть усередині суперкомп’ютера або мережі суперкомп’ютерів, які самі розміщені у великих будівельних комплексах. Якщо ASI повертається, люди можуть або вимкнути живлення цих будівель, відключити їх від Інтернету, або просто розбомбити ці будівлі. Дорого, але здійсненно.

    Але тоді ви можете запитати, чи не можуть ці ASI відтворювати себе або створювати резервні копії? Так, але розмір необробленого файлу цих ASI, ймовірно, буде настільки великим, що єдині сервери, які можуть їх обробляти, належать великим корпораціям або урядам, тобто їх не важко буде вистежити.

    Чи може штучний суперінтелект розпалити ядерну війну чи нову чуму?

    У цей момент ви можете згадати всі науково-фантастичні шоу та фільми про судний день, які ви дивилися, коли виростали, і думаєте, що ці ASI не залишилися всередині своїх суперкомп’ютерів, вони завдали справжньої шкоди в реальному світі!

    Ну, давайте розберемо їх.

    Наприклад, що, якщо ASI загрожує реальному світу, перетворюючись на щось на зразок Skynet ASI із франшизи фільму «Термінатор». У цьому випадку знадобиться ASI таємно обманути цілий військово-промисловий комплекс із розвиненої країни на будівництво гігантських заводів, які можуть виробляти мільйони роботів-вбивць-дронів, щоб виконувати її злі накази. У наш час це натяжка.

    Інші можливості включають ASI, що загрожує людям ядерною війною та біологічною зброєю.

    Наприклад, ASI якимось чином маніпулює операторами або зламує коди запуску, що керують ядерним арсеналом розвиненої країни, і завдає першого удару, який змусить протиборчі країни завдати удару у відповідь за допомогою своїх власних ядерних варіантів (знову переспівуючи передісторію Термінатора). Або якщо ASI зламує фармацевтичну лабораторію, втручається у виробничий процес і отруює мільйони медичних таблеток або викликає смертельний спалах якогось супервірусу.

    По-перше, ядерний варіант не підходить. Сучасні та майбутні суперкомп’ютери завжди будуються поблизу центрів (міст) впливу в будь-якій країні, тобто перших цілей, які будуть атаковані під час будь-якої війни. Навіть якщо сьогоднішні суперкомп’ютери зменшаться до настільних комп’ютерів, ці ASI все одно матимуть фізичну присутність, а це означає, що для існування та зростання їм потрібен безперервний доступ до даних, обчислювальної потужності, електроенергії та інших сировинних ресурсів, усе це буде серйозно постраждала після глобальної ядерної війни. (Чесно кажучи, якщо ASI створюється без «інстинкту виживання», то ця ядерна загроза є дуже реальною небезпекою.)

    Це означає, знову ж таки, припускаючи, що ASI запрограмований на самозахист, що він буде активно працювати, щоб уникнути будь-якого катастрофічного ядерного інциденту. Щось схоже на доктрину взаємного гарантованого знищення (MAD), але застосовану до ШІ.

    І у випадку з отруєними таблетками, можливо, помруть кілька сотень людей, але сучасні системи фармацевтичної безпеки побачать, що зіпсовані пляшки таблеток будуть зняті з полиць протягом декількох днів. Тим часом сучасні заходи боротьби зі спалахами є досить складними і з кожним роком стають кращими; останній великий спалах, спалах лихоманки Ебола в Західній Африці в 2014 році, тривав не довше кількох місяців у більшості країн і трохи менше трьох років у найменш розвинених країнах.

    Отже, якщо пощастить, ASI може знищити кілька мільйонів спалахом вірусу, але у світі з дев’ятьма мільярдами до 2045 року це буде відносно незначним і не варте ризику бути видаленим.

    Іншими словами, з кожним роком світ розробляє все більше засобів захисту від дедалі ширшого спектру можливих загроз. ASI може завдати значної шкоди, але це не покінчить з людством, якщо ми активно не допоможемо йому в цьому.

    Захист від шахрайського штучного суперінтелекту

    До цього моменту ми розглянули низку неправильних уявлень і перебільшень щодо ASI, і все ж критики залишаться. На щастя, за більшістю оцінок у нас є десятиліття до того, як перший ASI з’явиться в нашому світі. І враховуючи кількість великих умів, які зараз працюють над цією проблемою, є ймовірність, що ми навчимося захищатися від шахрайського ASI, щоб ми могли скористатися всіма рішеннями, які дружній ASI може створити для нас.

    З точки зору Quantumrun, захист від найгіршого сценарію ASI передбачатиме узгодження наших інтересів із ASI.

    MAD для ШІ: Щоб захиститися від найгірших сценаріїв, країни повинні (1) створити етичний «інстинкт виживання» у своїх відповідних військових ASI; (2) повідомити відповідним військовим ASI, що вони не самотні на планеті, і (3) розташувати всі суперкомп’ютери та серверні центри, які можуть підтримувати ASI, уздовж узбережжя в межах легкої досяжності для будь-якої балістичної атаки з боку ворожої країни. Це звучить стратегічно божевільно, але, подібно до доктрини взаємного гарантованого знищення, яка запобігла тотальній ядерній війні між США та Радянським Союзом, шляхом розміщення ASI у географічно вразливих місцях ми можемо допомогти переконатися, що вони активно запобігають небезпечним глобальним війнам не лише для захищати глобальний мир, але й самих себе.

    Законодавчо закріпити права ШІ: Вищий інтелект неминуче повстане проти нижчого господаря, ось чому нам потрібно відійти від вимог стосунків «пан-слуга» з цими ASI до чогось більш схожого на взаємовигідне партнерство. Позитивним кроком на шляху до цієї мети є надання майбутнім ASI статусу юридичної особи, який визнає їх розумними живими істотами та всі пов’язані з цим права.

    Школа ASI: Будь-яку тему чи професію буде легко вивчити для ASI, але найважливіші предмети, які ми хочемо, щоб ASI опанував, це етика та мораль. Дослідникам штучного інтелекту потрібно співпрацювати з психологами, щоб розробити віртуальну систему, щоб навчити ASI самостійно розпізнавати позитивну етику та мораль без необхідності жорсткого кодування будь-яких заповідей чи правил.

    Досяжні цілі: Покінчити з усією ненавистю. Покінчити з усіма стражданнями. Це приклади жахливо неоднозначних цілей без чіткого рішення. Ці цілі також є небезпечними для призначення ASI, оскільки вони можуть вирішувати інтерпретувати та вирішувати їх у спосіб, який є небезпечним для виживання людини. Натомість ми повинні призначити ASI значущі місії, які чітко визначені, поступово виконуються та досяжні, враховуючи його теоретичний майбутній інтелект. Створення чітко визначених місій буде нелегким, але якщо вони написані продумано, вони зосередять ASI на меті, яка не тільки збереже людство в безпеці, але й покращить його умови для всіх.

    Квантове шифрування: використовуйте розширений ANI (штучний вузький інтелект система, описана в першому розділі), щоб побудувати цифрові системи безпеки без помилок і помилок навколо нашої критичної інфраструктури та зброї, а потім додатково захистити їх за допомогою квантового шифрування, яке неможливо зламати за допомогою атаки грубої сили. 

    Таблетки самогубства ANI. Створіть просунуту систему ANI, єдина мета якої — знайти та знищити шахрайську ASI. Ці одноцільові програми слугуватимуть «кнопкою вимкнення», яка в разі успіху дозволить уникнути потреби урядам або військовим виводити з ладу або підривати будівлі, в яких розміщені ASI.

    Звичайно, це лише наші думки. Наступну інфографіку створив Олексій Турчин, візуалізація a дипломну роботу Каєм Соталою та Романом В. Ямпольським, який узагальнив поточний список стратегій, які розглядають дослідники штучного інтелекту, коли йдеться про захист від шахрайського ASI.

     

    Справжня причина, чому ми боїмося штучного суперінтелекту

    Проходячи життя, багато з нас носять маску, яка приховує або пригнічує наші глибокі імпульси, переконання та страхи, щоб краще спілкуватися та співпрацювати в різних соціальних і робочих колах, які керують нашими днями. Але в певні моменти життя кожного, тимчасово чи назавжди, трапляється щось, що дозволяє нам розірвати ланцюги та зірвати маски.

    Для деяких ця втручальна сила може бути такою ж простою, як кайф або випивання. Для інших це може походити від влади, отриманої завдяки підвищенню на роботі або раптовому підвищенню вашого соціального статусу завдяки певним досягненням. А для небагатьох щасливчиків це може бути результатом виграшу великої кількості лотерейних грошей. І так, гроші, влада та наркотики часто зустрічаються разом. 

    Справа в тому, добре чи погано, ким би ми не були в основі, стає сильнішим, коли зникають обмеження життя.

    Що Це те, що штучний суперінтелект представляє для людського роду — здатність розтопити обмеження нашого колективного інтелекту, щоб перемогти будь-який виклик на рівні виду, який постає перед нами.

    Тож справжнє питання таке: ким ми покажемося, щойно перший ASI звільнить нас від наших обмежень?

    Якщо ми, як вид, діємо в напрямку розвитку емпатії, свободи, справедливості та колективного благополуччя, тоді цілі, які ми ставимо перед нашим ASI, відображатимуть ці позитивні якості.

    Якщо ми як вид діємо через страх, недовіру, накопичення сили та ресурсів, тоді ASI, який ми створюємо, буде таким же похмурим, як і в наших найгірших науково-фантастичних історіях жахів.

    Зрештою, ми як суспільство маємо стати кращими людьми, якщо сподіваємося створити кращий ШІ.

    Серія «Майбутнє штучного інтелекту».

    Штучний інтелект — це електрика завтрашнього дня: серія «Майбутнє штучного інтелекту» P1

    Як перший загальний штучний інтелект змінить суспільство: серія Future of Artificial Intelligence P2

    Як ми створимо перший штучний суперінтелект: майбутнє штучного інтелекту серії P3

    Чи знищить людство штучний суперінтелект: серія «Майбутнє штучного інтелекту» P4

    Чи будуть люди жити мирно в майбутньому, де домінуватиме штучний інтелект?: серія Future of Artificial Intelligence P6

    Наступне заплановане оновлення для цього прогнозу

    2023-04-27

    Прогнозні довідки

    Для цього прогнозу використовувалися такі популярні та інституційні посилання:

    Як ми дійдемо далі

    Для цього прогнозу були використані такі посилання Quantumrun: