Стартап зі штучним інтелектом «викарний» збуджує еліту Кремнієвої долини – але чи все це ажіотаж?

Стартап зі штучним інтелектом «викарний» збуджує еліту Кремнієвої долини – але чи все це ажіотаж?
КРЕДИТ ЗОБРАЖЕННЯ: зображення через tb-nguyen.blogspot.com

Стартап зі штучним інтелектом «викарний» збуджує еліту Кремнієвої долини – але чи все це ажіотаж?

    • ім'я автора
      Лорен Марч
    • Авторський дескриптор Twitter
      @Quantumrun

    Повна історія (використовуйте ЛИШЕ кнопку «Вставити з Word», щоб безпечно копіювати та вставляти текст із документа Word)

    Стартап зі штучного інтелекту Vicarious останнім часом привертає багато уваги, і не зовсім зрозуміло чому. Багато лідерів Силіконової долини відкривають свої особисті кишенькові книжки та виділяють великі гроші на підтримку досліджень компанії. Їх веб-сайт хизується нещодавнім надходженням фінансування від таких видатних осіб, як генеральний директор Amazon Джефф Безос, співзасновник Yahoo Джеррі Янг, співзасновник Skype Янус Фрііс, засновник Facebook Марк Цукерберг і... Ештон Кутчер. Насправді невідомо, куди йдуть усі ці гроші. Останнім часом штучний інтелект є дуже секретною та захисною сферою технологічного розвитку, але публічні дебати щодо появи та використання довгоочікуваного штучного інтелекту в реальному світі не замовчуються. Vicarious був трохи темною конячкою на технологічній сцені.

    Незважаючи на те, що про компанію було багато шуму, особливо після того, як минулої осені їхні комп’ютери зламали «CAPTCHA», вони зуміли залишитися невловимим і таємничим гравцем. Наприклад, вони не повідомляють свою адресу, побоюючись корпоративного шпигунства, і навіть відвідування їх веб-сайту змусить вас спантеличити, що вони насправді роблять. Вся ця гра, яку важко отримати, досі змушує інвесторів шикуватися в чергу. Головним проектом Vicarious була побудова нейронної мережі, здатної відтворювати ту частину людського мозку, яка контролює зір, рухи тіла та мову.

    Співзасновник Скотт Фенікс сказав, що компанія намагається «створити комп’ютер, який мислить як людина, за винятком того, що йому не потрібно їсти чи спати». Досі Vicarious зосереджувався на візуальному розпізнаванні об’єктів: спочатку за допомогою фотографій, потім за допомогою відео, а потім – за іншими аспектами людського інтелекту та навчання. Співзасновник Діліп Джордж, раніше провідний дослідник Numenta, наголошує на аналізі перцептивної обробки даних у роботі компанії. План полягає в тому, щоб зрештою створити машину, яка зможе навчитися «думати» за допомогою серії ефективних і неконтрольованих алгоритмів. Природно, це дуже налякало людей.

    Протягом багатьох років можливість штучного інтелекту стати частиною реального життя відразу ж викликала різкі згадки в Голлівуді. На додаток до побоювань про втрату людських робочих місць через роботи, люди щиро стурбовані тим, що незабаром ми опинимося в ситуації, схожій на ті, що представлені в Матриці. Співзасновник Tesla Motors і PayPal Ілон Маск, також інвестор, висловив занепокоєння щодо штучного інтелекту в нещодавньому інтерв’ю CNBC.

    «Мені подобається просто стежити за тим, що відбувається зі штучним інтелектом», — сказав Маск. «Я думаю, що тут потенційно небезпечний результат. Про це були фільми, знаєте, наприклад «Термінатор». Є деякі страшні результати. І ми повинні намагатися переконатися, що результати хороші, а не погані».

    Стівен Хокінг вклав свої два центи, фактично підтвердивши наше побоювання, що нам слід боятися. Його останні коментарі в The Independent призвело до ажіотажу в ЗМІ, викликавши такі заголовки, як Huffington Post «Стівен Хокінг наляканий штучного інтелекту» та блискучу публікацію MSNBC «Штучний інтелект може знищити людство!» Коментарі Хокінга були значно менш апокаліптичними, що склало розумне попередження: «Успіх у створенні ШІ стане найбільшою подією в історії людства.

    На жаль, це також може бути останнім, якщо ми не навчимося уникати ризиків. Довгостроковий вплив штучного інтелекту залежить від того, чи можна його взагалі контролювати». Це питання «контролю» вивело з ладу багатьох активістів за права роботів, які відстоювали свободу роботів, заявляючи, що спроба «контролювати» цих мислячих істот була б жорстокою та рівнозначною формі рабства, і що ми повинні дозволити роботи будуть вільними та живуть своїм життям у повній мірі (Так, ці активісти існують.)

    Перш ніж люди захопляться, потрібно розв’язати багато проблем. По-перше, Vicarious не створює лігу роботів, які матимуть почуття, думки та особистості чи бажання повстати проти людей, які їх створили, і захопити світ. Вони ледь розуміють жарти. Досі було майже неможливо навчити комп’ютери чомусь, що нагадує чуття вулиці, людську «значущість» і людські тонкощі.

    Наприклад, проект Стенфордського університету під назвою «Глибоко зворушливий”, який мав на меті інтерпретувати рецензії на фільми та оцінювати фільми як пальці вгору, так і вниз, був абсолютно нездатний прочитати сарказм чи іронію. Зрештою, Vicarious не говорить про симуляцію людського досвіду. Широке твердження про те, що комп’ютери Vicarious «думатимуть» як люди, є досить розпливчастим. Нам потрібно придумати інше слово для «думати» в цьому контексті. Ми говоримо про комп’ютери, які можуть навчатися за допомогою розпізнавання – принаймні на даний момент.

    Отже, що це означає? Типи розробок, до яких ми реально рухаємося, мають більш практичні та застосовні характеристики, такі як розпізнавання обличчя, безпілотні автомобілі, медична діагностика, переклад тексту (зрештою, ми могли б використати щось краще, ніж перекладач Google) і гібридизація технологій. Найдурніше у всьому цьому нічого з цього не нове. Технологічний гуру та голова Товариства загального штучного інтелекту д-р Бен Герцель зазначає в свій блог, «Якщо ви вибрали інші проблеми, як-от бути посильним на велосипеді на людній вулиці Нью-Йорка, написати статтю в газеті про нову ситуацію, вивчити нову мову на основі досвіду реального світу або визначити найбільш значущі людські події серед усіх взаємодії між людьми у великій переповненій кімнаті, то ви побачите, що сьогоднішні статистичні методи [машинного навчання] не такі вже й корисні».

    Є просто певні речі, які машини ще не розуміють, і деякі речі, які не можуть бути враховані в алгоритмі. Ми спостерігаємо ажіотаж, який, як сніжний ком, майже довів, принаймні поки що, здебільшого пух. Але ажіотаж сам по собі може бути небезпечним. Як директор із досліджень штучного інтелекту у Facebook і директор-засновник Центру науки про дані Нью-Йоркського університету, Янн ЛеКун публічно опублікував його сторінку Google+: «Ажіотаж небезпечний для ШІ. Ажіотаж чотири рази вбивав ШІ за останні п’ять десятиліть. Штучний ажіотаж має бути зупинений».

    Коли минулої осені Vicarious зламав CAPTCHA, ЛеКун скептично поставився до ажіотажу в ЗМІ, зазначивши пару дуже важливих фактів: «1. Зламати CAPTCHA навряд чи цікаве завдання, якщо ви не спамер; 2. Легко заявити про успіх на наборі даних, який ви приготували самі». Далі він порадив технічним журналістам: «Будь ласка, будь ласка, не вірте туманним заявам стартапів зі штучним інтелектом, якщо вони не дають найсучасніших результатів за загальноприйнятими тестами», і каже остерігатися вигадливого або розпливчастого жаргону на кшталт «програмне забезпечення машинного навчання на основі обчислювальні принципи людського мозку», або «рекурсивна кортикальна мережа».

    За стандартами LeCun, розпізнавання об’єктів і зображень є набагато більш вражаючим кроком у розвитку ШІ. Він більше вірить у роботу таких груп, як Deep Mind, які мають хороший досвід у престижних публікаціях і технологічних розробках, а також чудову команду вчених та інженерів, які працюють на них. «Можливо, Google переплатив за Deep Mind, — каже Лекун, — але вони отримали на ці гроші чималу частину розумних людей. Хоча деякі з того, що робить Deep Mind, тримаються в секреті, вони публікують статті на великих конференціях». Думка Лекуна про Vicarious зовсім інша. «Vicarious — це дим і дзеркала, — каже він. — У людей немає послужного списку (або, якщо він є, це послужний список розголошення, а не досягнення результатів).

    Вони ніколи не робили жодного внеску в штучний інтелект, машинне навчання чи комп’ютерне зір. Немає інформації про методи та алгоритми, які вони використовують. І немає результатів стандартних наборів даних, які могли б допомогти спільноті оцінити якість їхніх методів. Це все ажіотаж. Є багато стартапів зі штучним інтелектом/глибокого навчання, які роблять цікаві речі (переважно застосовують методи, нещодавно розроблені в академічних колах). Мене дивує, що Vicarious привертає стільки уваги (і грошей) лише дикими необґрунтованими заявами».

    Можливо, це ремінісценція псевдокультових духовних рухів, до яких залучаються знаменитості. Це змушує все це здаватись трохи шахрайським або принаймні частково фантастичним. Я маю на увазі, наскільки серйозно ви можете сприймати операцію, яка включає Ештона Катчера та близько мільйона посилань на Термінатора? У минулому багато засобів масової інформації висвітлювалися з величезним ентузіазмом, преса, можливо, надмірно схвильована використанням таких слів, як «біологічно натхненний процесор» і «квантове обчислення».

    Але цього разу хайп-машина трохи неохоче автоматично вмикає передачу. Як зазначив Гарі Маркус нещодавно в The New Yorker, багато з цих історій «у кращому випадку заплутані», фактично не висловлюючи нічого нового та повторюючи інформацію про технології, які ми вже маємо та використовуємо. І ця справа триває десятиліття. Просто перевірте Перцепрон і ви можете отримати уявлення про те, наскільки цей технічний потяг насправді іржавий. Тим не менш, багаті люди стрибають на борт поїзда грошей, і, здається, він не зупиниться найближчим часом.