Стартап ИИ «замещающий» волнует элиту Силиконовой долины — но все ли это шумиха?

Стартап ИИ «замещающий» волнует элиту Силиконовой долины — но все ли это шумиха?
ИЗОБРАЖЕНИЕ ПРЕДОСТАВЛЕНО: Изображение через tb-nguyen.blogspot.com

Стартап ИИ «замещающий» волнует элиту Силиконовой долины — но все ли это шумиха?

    • Имя автора
      Лорен Марч
    • Автор Twitter Handle
      @Quantumrun

    Полная история (используйте ТОЛЬКО кнопку «Вставить из Word», чтобы безопасно копировать и вставлять текст из документа Word)

    Стартап искусственного интеллекта Vicarious в последнее время привлекает много внимания, и не совсем понятно, почему. Многие воротилы Кремниевой долины открывали свои личные кошельки и тратили большие деньги на поддержку исследований компании. Их веб-сайт щеголяет недавним притоком финансирования от таких знаменитостей, как генеральный директор Amazon Джефф Безос, соучредитель Yahoo Джерри Янг, соучредитель Skype Янус Фриис, основатель Facebook Марк Цукерберг и... Эштон Катчер. Неизвестно, куда уходят все эти деньги. В последнее время ИИ является очень секретной и защищенной областью технологического развития, но публичные дебаты о появлении и использовании долгожданного ИИ в реальном мире были какими угодно, только не замалчиваемыми. Vicarious был чем-то вроде темной лошадки на технической сцене.

    Несмотря на то, что о компании было много шума, особенно после того, как их компьютеры взломали «CAPTCHA» прошлой осенью, им удалось остаться неуловимым и загадочным игроком. Например, они не сообщают свой адрес, опасаясь корпоративного шпионажа, и даже посещение их веб-сайта оставит вас в замешательстве относительно того, чем они на самом деле занимаются. Вся эта игра в недосягаемость по-прежнему заставляет инвесторов выстраиваться в очередь. Основным проектом Vicarious было создание нейронной сети, способной воспроизвести ту часть человеческого мозга, которая контролирует зрение, движения тела и язык.

    Соучредитель Скотт Феникс сказал, что компания пытается «создать компьютер, который думает как человек, за исключением того, что ему не нужно есть или спать». Vicarious до сих пор фокусировался на визуальном распознавании объектов: сначала с помощью фотографий, затем с помощью видео, а затем с другими аспектами человеческого интеллекта и обучения. Соучредитель Дилип Джордж, ранее ведущий исследователь в Numenta, делает упор на анализ обработки перцептивных данных в работе компании. План состоит в том, чтобы в конечном итоге создать машину, которая сможет научиться «думать» с помощью ряда эффективных и неконтролируемых алгоритмов. Естественно, это очень напугало людей.

    В течение многих лет возможность того, что ИИ станет частью реальной жизни, сразу же вызывала рефлекторные ссылки в Голливуде. Помимо опасений по поводу того, что человеческие рабочие места будут потеряны для роботов, люди искренне обеспокоены тем, что вскоре мы окажемся в ситуации, мало чем отличающейся от той, что представлена ​​в Матрице. Соучредитель Tesla Motors и PayPal Илон Маск, также являющийся инвестором, выразил обеспокоенность по поводу ИИ в недавнем интервью CNBC.

    «Мне нравится просто следить за тем, что происходит с искусственным интеллектом», — сказал Маск. «Я думаю, что там потенциально опасный исход. Об этом сняты фильмы, например, Терминатор. Есть пугающие результаты. И мы должны постараться сделать так, чтобы результаты были хорошими, а не плохими».

    Стивен Хокинг вставил свои пять копеек, фактически подтвердив наши опасения, что нам следует бояться. Его недавние комментарии в The Independent привело к безумию в СМИ, вызвав такие заголовки, как «Стивен Хокинг боится искусственного интеллекта» на Huffington Post и блестящую статью MSNBC «Искусственный интеллект может положить конец человечеству!» Комментарии Хокинга были значительно менее апокалиптичными и представляли собой разумное предупреждение: «Успех в создании ИИ станет крупнейшим событием в истории человечества.

    К сожалению, она может оказаться и последней, если мы не научимся избегать рисков. Долгосрочное влияние ИИ зависит от того, можно ли его вообще контролировать». Этот вопрос «контроля» вывел из колеи многих борцов за права роботов, которые выступали за свободу роботов, заявляя, что попытка «контролировать» этих мыслящих существ была бы жестокой и равносильной форме рабства, и что мы должны позволить роботы будут свободны и будут жить полной жизнью (да, такие активисты существуют).

    Прежде чем люди увлекутся, нужно решить многие незавершенные дела. Во-первых, Vicarious не создает лигу роботов, у которых будут чувства, мысли и личности или желание восстать против людей, которые их создали, и захватить мир. Они едва понимают шутки. До сих пор было почти невозможно научить компьютеры чему-либо, напоминающему уличное чутье, человеческую «осмысленность» и человеческие тонкости.

    Например, проект из Стэнфорда под названием «Глубоко трогательно», предназначенный для интерпретации рецензий на фильмы и оценки фильмов, был совершенно неспособен читать сарказм или иронию. В конце концов, Vicarious не говорит о симуляции человеческого опыта. Широко распространенное заявление о том, что компьютеры Vicarious будут «думать» как люди, довольно расплывчато. Нам нужно придумать другое слово для «думать» в этом контексте. Мы говорим о компьютерах, которые могут учиться через распознавание — по крайней мере, на данный момент.

    Итак, что это значит? Виды разработок, к которым мы реально движемся, имеют более практичные и применимые характеристики, такие как распознавание лиц, беспилотные автомобили, медицинская диагностика, перевод текста (в конце концов, мы определенно могли бы использовать что-то лучше, чем переводчик Google) и гибридизация технологий. Глупость во всем этом заключается в том, ничего из этого не ново. Технический гуру и председатель Общества искусственного интеллекта д-р Бен Герцель отмечает в свой блог«Если вы выбрали другие задачи, такие как работа курьером на велосипеде на многолюдной улице Нью-Йорка, написание газетной статьи о новой ситуации, изучение нового языка на основе реального опыта или выявление наиболее значимых человеческих событий среди всех взаимодействия между людьми в большом переполненном помещении, то вы обнаружите, что сегодняшние статистические методы [машинного обучения] не так уж и полезны».

    Есть просто определенные вещи, которые машины еще не понимают, и некоторые вещи, которые не могут быть полностью отражены в алгоритме. Мы наблюдаем катящийся как снежный ком шумиху, которая в значительной степени оказалась, по крайней мере, до сих пор, в основном пухом. Но сам по себе хайп может быть опасен. Как директор Facebook по исследованиям искусственного интеллекта и директор-основатель Центра науки о данных Нью-Йоркского университета, Янн ЛеКун публично опубликовал в его +страница в Google+: «Хайп опасен для ИИ. Хайп убил ИИ четыре раза за последние пять десятилетий. Ажиотаж вокруг ИИ должен быть остановлен».

    Когда прошлой осенью Vicarious взломал CAPTCHA, ЛеКун скептически отнесся к безумию СМИ, указав на пару очень важных реалий: «1. Взлом CAPTCHA вряд ли интересная задача, если вы не спамер; 2. Легко заявлять об успехе с набором данных, который вы создали сами». Далее он посоветовал техническим журналистам: «Пожалуйста, не верьте расплывчатым заявлениям стартапов в области искусственного интеллекта, если они не дают передовых результатов в общепринятых тестах», и советует остерегаться причудливого или расплывчатого жаргона, такого как «программное обеспечение для машинного обучения, основанное на вычислительные принципы человеческого мозга», или «рекурсивная корковая сеть».

    По стандартам Лекуна, распознавание объектов и изображений — гораздо более впечатляющий шаг в развитии ИИ. Он больше доверяет работе таких групп, как Deep Mind, которые имеют хороший послужной список в престижных публикациях и технических разработках, а также отличной команде ученых и инженеров, работающих на них. «Возможно, Google переплатил за Deep Mind, — говорит ЛеКун, — но на эти деньги они получили немало умных людей. Хотя кое-что из того, что делает Deep Mind, держится в секрете, они публикуют статьи на крупных конференциях». Мнение Лекуна о Vicarious совершенно иное: «Vicarious — это сплошной дым и зеркала, — говорит он, — у людей нет послужного списка (а если он и есть, то это послужной список раскрутки, а не результата).

    Они никогда не вносили никакого вклада в ИИ, машинное обучение или компьютерное зрение. Нет никакой информации о методах и алгоритмах, которые они используют. И на стандартных наборах данных нет результатов, которые могли бы помочь сообществу оценить качество их методов. Это все шумиха. Есть много стартапов в области ИИ/глубокого обучения, которые делают интересные вещи (в основном, применяют методы, недавно разработанные в академических кругах). Меня сбивает с толку, что Vicarious привлекает столько внимания (и денег) ничем, кроме диких необоснованных заявлений».

    Может быть, это воспоминания о псевдокультовых духовных движениях, которые привлекают знаменитостей. Это заставляет все это казаться немного фальшивым или, по крайней мере, частично фантастическим. Я имею в виду, насколько серьезно вы можете относиться к операции, в которой участвует Эштон Катчер и около миллиона отсылок к Терминатору? В прошлом большая часть средств массовой информации освещалась с огромным энтузиазмом, возможно, пресса была слишком взволнована использованием таких слов, как «биологически вдохновленный процессор» и «квантовые вычисления».

    Но на этот раз хайп-машина немного более неохотно автоматически переключается на передачу. Как недавно отметил Гэри Маркус в The New Yorker, многие из этих историй «в лучшем случае запутаны», на самом деле не давая ничего нового и перефразируя информацию о технологиях, которые у нас уже есть и которые мы используем. И это продолжается уже десятилетия. Просто посмотрите Перцептрон и вы можете получить представление о том, насколько ржавым на самом деле является этот техпоезд. Тем не менее, богатые люди прыгают в поезд денег, и не похоже, что он остановится в ближайшее время.