Як ми створимо перший штучний суперінтелект: майбутнє штучного інтелекту P3

КРЕДИТ ЗОБРАЖЕННЯ: Quantumrun

Як ми створимо перший штучний суперінтелект: майбутнє штучного інтелекту P3

    Глибоко в Другу світову війну нацистські сили пройшли через більшу частину Європи. У них була передова зброя, ефективна воєнна промисловість, фанатично керована піхота, але понад усе у них була машина під назвою Енігма. Цей пристрій дозволив нацистським військам безпечно співпрацювати на великих відстанях, надсилаючи один одному повідомлення за допомогою коду Морзе через стандартні лінії зв’язку; це була машина шифрування, неприступна для людей, які зламують коди. 

    На щастя, союзники знайшли рішення. Їм більше не потрібен був людський розум, щоб зламати Енігму. Натомість завдяки винаходу покійного Алана Тюрінга союзники створили новий революційний інструмент під назвою Британська бомба, електромеханічний пристрій, який нарешті розшифрував секретний код нацистів і зрештою допоміг їм виграти війну.

    Ця Бомба заклала основу для того, що стало сучасним комп’ютером.

    Разом з Тьюрингом під час проекту розробки Bombe працював І. Дж. Гуд, британський математик і криптолог. На початку гри він побачив, що цей новий пристрій одного разу може стати можливим. В Папір 1965, він написав:

    «Нехай ультрарозумна машина буде визначена як машина, яка може значно перевершити всю інтелектуальну діяльність будь-якої розумної людини. Оскільки проектування машин є однією з цих інтелектуальних видів діяльності, ультрарозумна машина могла б проектувати ще кращі машини; тоді, безсумнівно, відбувся б «вибух інтелекту», і інтелект людини залишився б далеко позаду... Таким чином, перша надрозумна машина є останнім винаходом, який людина коли-небудь повинна зробити, за умови, що машина достатньо слухняна, щоб розповісти нам, як тримати це під контролем».

    Створення першого штучного суперінтелекту

    У нашій серії «Майбутнє штучного інтелекту» ми визначили три широкі категорії штучного інтелекту (ШІ), починаючи з штучний вузький інтелект (ANI) до штучний загальний інтелект (AGI), але в цьому розділі серії ми зосередимося на останній категорії — тій, яка викликає хвилювання або панічні атаки серед дослідників ШІ — штучному суперінтелекті (ASI).

    Щоб зрозуміти, що таке ASI, вам потрібно згадати минулий розділ, де ми описали, як дослідники ШІ вважають, що створять перший AGI. По суті, для цього знадобиться комбінація кращих алгоритмів, що надсилають великі дані (які спеціалізуються на самовдосконаленні та людських здібностях до навчання), розміщених у все більш потужному обчислювальному обладнанні.

    У цьому розділі ми також окреслили, як розум AGI (як тільки він отримає ці здібності до самовдосконалення та навчання, які ми, люди, сприймаємо як належне) зрештою перевершить людський розум за рахунок надзвичайної швидкості мислення, покращеної пам’яті, невтомної продуктивності та можливість миттєвого оновлення.

    Але тут важливо зазначити, що AGI самовдосконалюється лише в межах апаратного забезпечення та даних, до яких він має доступ; це обмеження може бути великим або малим залежно від тіла робота, яке ми йому надаємо, або масштабу комп’ютерів, до яких ми надаємо йому доступ.

    При цьому різниця між AGI і ASI полягає в тому, що останній, теоретично, ніколи не існуватиме у фізичній формі. Він працюватиме повністю в межах суперкомп’ютера або мережі суперкомп’ютерів. Залежно від цілей його творців, він також може отримати повний доступ до всіх даних, що зберігаються в Інтернеті, а також будь-якого пристрою чи людини, які передають дані в Інтернет і через нього. Це означає, що не буде практичних обмежень щодо того, скільки цей ASI може навчитися та скільки він може самовдосконалюватися. 

    І це руб. 

    Розуміння вибуху інтелекту

    Цей процес самовдосконалення, який штучний інтелект з часом отримає, коли стане AGI (цей процес спільнота штучного інтелекту називає рекурсивним самовдосконаленням), потенційно може порушити цикл позитивного зворотного зв’язку, який виглядає приблизно так:

    Створюється новий AGI, йому надається доступ до тіла робота або великого набору даних, а потім дається просте завдання самоосвіти, покращення свого інтелекту. Спочатку цей AGI матиме IQ немовляти, якому важко зрозуміти нові поняття. Згодом він навчиться достатньо, щоб досягти IQ середньої дорослої людини, але на цьому справа не зупиняється. Використовуючи цей новий IQ дорослої людини, стає набагато простіше та швидше продовжувати це покращення до рівня, коли його IQ збігається з IQ найрозумніших відомих людей. Але знову ж таки, це не закінчується.

    Цей процес посилюється на кожному новому рівні інтелекту, дотримуючись закону прискорення віддачі, доки він не досягне незліченного рівня суперінтелекту — іншими словами, якщо його не контролювати та надати йому необмежені ресурси, AGI самовдосконалюється в ASI, інтелект, який ніколи раніше не існувало в природі.

    Це те, що вперше виявив І. Дж. Гуд, коли описав цей «вибух інтелекту» або те, що сучасні теоретики ШІ, як-от Нік Бостром, називають подією «зльоту» ШІ.

    Розуміння штучного суперінтелекту

    У цей момент дехто з вас, ймовірно, думає, що ключова відмінність між інтелектом людини та інтелектом ASI полягає в тому, наскільки швидко може мислити кожна зі сторін. І хоча це правда, що цей теоретичний ASI майбутнього мислитиме швидше за людей, ця здатність уже є досить поширеною в сучасному комп’ютерному секторі — наш смартфон думає (обчислює) швидше за людський розум, суперкомп'ютер мислить у мільйони разів швидше, ніж смартфон, а квантовий комп’ютер майбутнього думатиме ще швидше. 

    Ні, швидкість не є характеристикою інтелекту, яку ми тут пояснюємо. Це якість. 

    Ви можете як завгодно пришвидшити роботу мозку свого самоїда чи коргі, але це не означає нового розуміння того, як інтерпретувати мову чи абстрактні ідеї. Навіть маючи додаткове десятиліття чи два, ці собаки раптом не зрозуміють, як виготовляти чи використовувати інструменти, не кажучи вже про більш тонку різницю між капіталістичною та соціалістичною економічними системами.

    Коли мова заходить про інтелект, люди діють на іншому рівні, ніж тварини. Подібним чином, якщо ASI досягне свого повного теоретичного потенціалу, їхній розум працюватиме на рівні, який є далеко за межами досяжності середньої сучасної людини. Для деякого контексту давайте подивимося на застосування цих ASI.

    Як штучний суперінтелект може працювати разом з людством?

    Якщо припустити, що певний уряд чи корпорація успішно створюють ASI, як вони можуть його використовувати? За словами Бострома, існує три окремі, але пов’язані форми, які можуть набувати ці ASI:

    • Oracle Тут ми будемо взаємодіяти з ASI так само, як ми вже робимо з пошуковою системою Google; ми задамо йому запитання, але яким би складним це запитання не було, ASI дасть на нього ідеальну відповідь у спосіб, який адаптовано до вас і контексту вашого запитання.
    • джин. У цьому випадку ми призначаємо ASI певне завдання, і воно виконуватиметься за командою. Дослідіть ліки від раку. Готово. Знайдіть усі планети, заховані в 10-річному відставанні зображень із космічного телескопа Хаббла NASA. Готово. Створіть діючий термоядерний реактор, щоб задовольнити потреби людства в енергії. Абракадабра.
    • Суверенна. Тут ASI призначається відкрита місія та надається свобода її виконання. Викрадайте секрети досліджень і розробок у нашого корпоративного конкурента. «Легко». Дізнайтеся особи всіх іноземних шпигунів, які ховаються на наших кордонах. "На ньому." Забезпечити подальше економічне процвітання Сполучених Штатів. "Нема проблем."

    Тепер я знаю, про що ви думаєте, все це звучить досить надумано. Ось чому важливо пам’ятати, що будь-яка проблема/виклик, навіть ті, які на сьогоднішній день збентежили найяскравіші уми світу, усі вони вирішувані. Але складність проблеми вимірюється інтелектом, який її вирішує.

    Іншими словами, чим більше розуму приділяється проблемі, тим легше стає знайти її вирішення. Будь-який виклик. Це схоже на те, як дорослий спостерігає за дитиною, яка намагається зрозуміти, чому вона не може вставити квадратний блок у круглий отвір — для дорослого показати немовляті, що блок має пройти через квадратний отвір, було б дитячою грою.

    Подібним чином, якщо цей майбутній ASI повністю розкриє свій потенціал, цей розум стане найпотужнішим інтелектом у відомому Всесвіті — достатньо потужним, щоб вирішити будь-яке завдання, незалежно від його складності. 

    Ось чому багато дослідників штучного інтелекту називають ASI останнім винаходом, який коли-небудь створить людина. Якщо ми переконані працювати разом з людством, це може допомогти нам вирішити всі найнагальніші проблеми світу. Ми навіть можемо попросити його усунути всі хвороби та припинити старіння, яке ми знаємо. Людство вперше може назавжди обдурити смерть і увійти в нову епоху процвітання.

    Але можливо і навпаки. 

    Розум – це сила. Якщо погано керувати чи керувати ним погані актори, цей ASI може стати найкращим інструментом гноблення, або він може повністю знищити людство — згадайте Скайнет із Термінатора чи Архітектора з фільмів Матриця.

    Насправді жодна крайність малоймовірна. Майбутнє завжди набагато заплутаніше, ніж пророкують утопісти та дистопісти. Ось чому тепер, коли ми розуміємо концепцію ASI, решту цієї серії буде досліджувати, як ASI вплине на суспільство, як суспільство захищатиметься від шахрайського ASI та як може виглядати майбутнє, якщо люди та штучний інтелект будуть жити поруч. -сторона. Читайте далі.

    Серія «Майбутнє штучного інтелекту».

    Штучний інтелект — це електрика завтрашнього дня: серія «Майбутнє штучного інтелекту» P1

    Як перший загальний штучний інтелект змінить суспільство: серія Future of Artificial Intelligence P2

    Чи знищить штучний суперінтелект людство?: серія «Майбутнє штучного інтелекту» P4

    Як люди захищатимуться від штучного суперінтелекту: серія «Майбутнє штучного інтелекту» P5

    Чи будуть люди жити мирно в майбутньому, де домінуватиме штучний інтелект?: серія Future of Artificial Intelligence P6

    Наступне заплановане оновлення для цього прогнозу

    2023-04-27

    Прогнозні довідки

    Для цього прогнозу використовувалися такі популярні та інституційні посилання:

    Intelligence.org
    Манчестерський університет
    YouTube - Всесвітній економічний форум

    Для цього прогнозу були використані такі посилання Quantumrun: