Стартап штучнага інтэлекту «вікарый» хвалюе эліту Сіліконавай даліны – Але ці ўсё гэта ажыятаж?

Стартап штучнага інтэлекту «вікарый» хвалюе эліту Сіліконавай даліны – Але ці ўсё гэта ажыятаж?
КРЭДЫТ ВЫЯВЫ: выява праз tb-nguyen.blogspot.com

Стартап штучнага інтэлекту «вікарый» хвалюе эліту Сіліконавай даліны – Але ці ўсё гэта ажыятаж?

    • Імя аўтара
      Ларэн Марч
    • Аўтар Twitter Handle
      @Quantumrun

    Поўная гісторыя (выкарыстоўвайце ТОЛЬКІ кнопку «Уставіць з Word», каб бяспечна скапіяваць і ўставіць тэкст з дакумента Word)

    Стартап Vicarious, які займаецца штучным інтэлектам, у апошні час прыцягвае шмат увагі, і не зусім зразумела, чаму. Шмат гігантаў Сіліконавай даліны адкрываюць свае асабістыя кішэнныя кніжкі і выкладваюць вялікія грошы на падтрымку даследаванняў кампаніі. Іх вэб-сайт паказвае нядаўні прыток сродкаў ад такіх вядомых асоб, як генеральны дырэктар Amazon Джэф Безос, сузаснавальнік Yahoo Джэры Янг, сузаснавальнік Skype Янус Фрыіс, заснавальнік Facebook Марк Цукерберг і... Эштан Катчэр. Насамрэч невядома, куды ідуць усе гэтыя грошы. Штучны інтэлект апошнім часам з'яўляецца вельмі сакрэтнай і ахоўнай сферай тэхналагічнага развіцця, але публічная дыскусія аб з'яўленні і выкарыстанні доўгачаканага штучнага інтэлекту ў рэальным свеце была зусім не замоўчанай. Vicarious быў трохі цёмным конікам на тэхналагічнай арэне.

    Хаця пра кампанію было шмат шуму, асабліва пасля таго, як восенню мінулага года іх кампутары ўзламалі "CAPTCHA", ім удалося застацца няўлоўным і таямнічым гульцом. Напрыклад, яны не паведамляюць свой адрас, баючыся карпаратыўнага шпіянажу, і нават наведванне іх вэб-сайта прымусіць вас заблытацца аб тым, што яны на самой справе робяць. Уся гэтая цяжкадаступная гульня ўсё яшчэ прымушае інвестараў выстройвацца ў чаргу. Галоўным праектам Vicarious было стварэнне нейронавай сеткі, здольнай паўтарыць тую частку чалавечага мозгу, якая кантралюе зрок, рухі цела і мову.

    Сузаснавальнік Скот Фенікс сказаў, што кампанія спрабуе «пабудаваць кампутар, які думае як чалавек, за выключэннем таго, што яму не трэба есці і спаць». Vicarious дагэтуль засяроджваўся на візуальным распазнаванні аб'ектаў: ​​спачатку з фотаздымкамі, потым з відэа, потым з іншымі аспектамі чалавечага інтэлекту і навучання. Сузаснавальнік Дыліп Джордж, які раней быў вядучым даследчыкам у Numenta, надае асаблівую ўвагу аналізу перцэпцыйнай апрацоўкі даных у працы кампаніі. План складаецца ў тым, каб у канчатковым выніку стварыць машыну, якая можа навучыцца «думаць» з дапамогай серыі эфектыўных алгарытмаў без кантролю. Натуральна, гэта вельмі напалохала людзей.

    На працягу многіх гадоў магчымасць штучнага інтэлекту стаць часткай рэальнага жыцця адразу выклікала галівудскія спасылкі. У дадатак да страху з нагоды страты працоўных месцаў людзей з-за робатаў, людзі шчыра занепакоеныя тым, што неўзабаве мы апынемся ў сітуацыі, падобнай да той, што прадстаўлена ў Матрыцы. Сузаснавальнік Tesla Motors і PayPal Ілон Маск, які таксама з'яўляецца інвестарам, выказаў заклапочанасць наконт штучнага інтэлекту ў нядаўнім інтэрв'ю CNBC.

    «Мне падабаецца проста сачыць за тым, што адбываецца са штучным інтэлектам», — сказаў Маск. «Я думаю, што тут патэнцыйна небяспечны вынік. Былі фільмы пра гэта, вы ведаеце, як Тэрмінатар. Ёсць некаторыя страшныя вынікі. І мы павінны старацца, каб вынікі былі добрымі, а не дрэннымі».

    Стывен Хокінг уклаў свае два цэнты, па сутнасці, пацвердзіўшы наш страх, што мы павінны баяцца. Яго нядаўнія каментары ў The Independent выклікала ажыятаж у СМІ, выклікаўшы такія загалоўкі, як Huffington Post «Стывен Хокінг у жаху перад штучным інтэлектам» і геніяльны MSNBC «Штучны інтэлект можа знішчыць чалавецтва!» Каментарыі Хокінга былі значна менш апакаліптычнымі, складаючы разумнае папярэджанне: «Поспех у стварэнні штучнага інтэлекту быў бы самай вялікай падзеяй у гісторыі чалавецтва.

    На жаль, гэта таксама можа быць апошнім, калі мы не навучымся пазбягаць рызык. Доўгатэрміновы ўплыў ІІ залежыць ад таго, ці можна ім наогул кіраваць». Гэтае пытанне аб «кантролі» вывела з нуля многіх актывістаў за правы робатаў, якія выступалі за свабоду робатаў, кажучы, што спроба «кантраляваць» гэтых думаючых істот была б жорсткай і прыраўноўвалася да формы рабства, і што мы павінны дазволіць робаты быць свабоднымі і жыць у поўнай меры (Так, такія актывісты існуюць.)

    Мноства незадаволеных момантаў трэба вырашыць, перш чым людзі захопяцца. Па-першае, Vicarious не стварае лігу робатаў, якія будуць мець пачуцці, думкі і асобы або жаданне паўстаць супраць людзей, якія іх стварылі, і захапіць свет. Яны амаль не разумеюць жартаў. Дагэтуль навучыць кампутар чаму-небудзь падобнаму на вулічны сэнс, чалавечую «асэнсаванасць» і чалавечыя тонкасці было практычна немагчыма.

    Напрыклад, праект са Стэнфарда пад назвай «Глыбока кранальны», прызначаны для інтэрпрэтацыі рэцэнзій на фільмы і ацэнкі фільмаў «падобна» або «палец уніз», быў абсалютна няздольны прачытаць сарказм або іронію. У рэшце рэшт, Vicarious не кажа пра мадэляванне чалавечага вопыту. Шырока шырокая заява аб тым, што кампутары Vicarious будуць «думаць» як людзі, даволі расплывістая. Нам трэба прыдумаць іншае слова для «думаць» у гэтым кантэксце. Мы гаворым пра кампутары, якія могуць вучыцца праз распазнаванне - прынамсі, пакуль.

    Дык што гэта значыць? Тыя распрацоўкі, да якіх мы рэалістычна рухаемся, маюць больш практычныя і прыдатныя характарыстыкі, такія як распазнаванне твараў, беспілотныя аўтамабілі, медыцынская дыягностыка, пераклад тэксту (у рэшце рэшт, мы маглі б выкарыстаць нешта лепшае, чым Google Translate) і гібрыдызацыя тэхналогій. Самае глупства ва ўсім гэтым нічога з гэтага не новае. Тэхналагічны гуру і старшыня Таварыства штучнага інтэлекту д-р Бэн Герцэль адзначае ў Яго блог, «Калі вы выбралі іншыя праблемы, напрыклад, быць веласіпедным пасыльным на шматлюднай вуліцы Нью-Ёрка, напісаць газетны артыкул аб новай сітуацыі, вывучыць новую мову на аснове рэальнага вопыту або вызначыць найбольш значныя чалавечыя падзеі сярод усіх узаемадзеяння паміж людзьмі ў вялікім шматлюдным памяшканні, то вы выявіце, што сённяшнія статыстычныя метады [машыннага навучання] не такія карысныя».

    Ёсць толькі пэўныя рэчы, якія машыны яшчэ не разумеюць, і некаторыя рэчы, якія не могуць быць цалкам зафіксаваны ў алгарытме. Мы бачым ажыятаж, які раскочваецца, як снежны ком, які, па меншай меры, да гэтага часу, у значнай ступені даказаў, што ён у асноўным пусты. Але сама шуміха можа быць небяспечнай. У якасці дырэктара Facebook па даследаваннях штучнага інтэлекту і дырэктара-заснавальніка Цэнтра навукі аб даных Нью-Йоркскага універсітэта Ян ЛеКун публічна апублікаваў яго старонка Google+: «Шуміха небяспечная для ІІ. За апошнія пяць дзесяцігоддзяў шуміха забівала штучны інтэлект чатыры разы. Ажыятаж ІІ павінен быць спынены».

    Калі мінулай восенню Vicarious узламаў CAPTCHA, ЛеКун скептычна паставіўся да ажыятажу ў СМІ, указаўшы на некалькі вельмі важных фактаў: ​​«1. Узламаць CAPTCHA наўрад ці цікавая задача, калі толькі вы не спамер; 2. Лёгка заявіць пра поспех на наборы даных, які вы самі падрыхтавалі». Далей ён параіў тэхнічным журналістам: «Калі ласка, калі ласка, не верце расплывістым заявам стартапаў AI, калі яны не даюць сучасных вынікаў на агульнапрынятых тэстах», і кажа сцерагчыся мудрагелістых або расплывістых жаргонаў, такіх як «праграмнае забеспячэнне машыннага навучання, заснаванае на вылічальныя прынцыпы чалавечага мозгу», або «рэкурсіўная коркавая сетка».

    Па стандартах LeCun, распазнаванне аб'ектаў і малюнкаў - значна больш уражлівы крок у развіцці ІІ. Ён больш верыць у працу такіх груп, як Deep Mind, якія маюць добры паслужны спіс у прэстыжных публікацыях і тэхналагічных распрацоўках, а таксама выдатную каманду навукоўцаў і інжынераў, якія працуюць на іх. «Магчыма, Google пераплаціў за Deep Mind, — кажа ЛеКун, — але яны сапраўды атрымалі на гэтыя грошы добрую частку разумных людзей. Хаця частка таго, што робіць Deep Mind, трымаецца ў сакрэце, яны публікуюць даклады на буйных канферэнцыях». Меркаванне Лекуна пра Vicarious зусім іншае. «Vicarious — гэта дым і люстэрка, — кажа ён. — У людзей няма паслужнага спісу (а калі ён і ёсць, то паслужны спіс раскручвання, а не выканання).

    Яны ніколі не ўносілі ніякага ўкладу ў ІІ, машыннае навучанне або камп'ютэрны зрок. Інфармацыі аб метадах і алгарытмах, якія яны выкарыстоўваюць, няма. І няма вынікаў стандартных набораў дадзеных, якія маглі б дапамагчы супольнасці ацаніць якасць іх метадаў. Гэта ўсё хайп. Ёсць шмат стартапаў AI/глыбокага навучання, якія робяць цікавыя рэчы (у асноўным ужываюць метады, нядаўна распрацаваныя ў акадэмічных колах). Мяне здзіўляе, што Vicarious прыцягвае так шмат увагі (і грошай) толькі дзікімі неабгрунтаванымі заявамі».

    Магчыма, гэта рэмінісцэнцыя псеўдакультавых духоўных рухаў, у якія ўцягваюцца знакамітасці. Гэта робіць усю гэтую рэч крыху недарэчнай або, па меншай меры, часткова фантастычнай. Я маю на ўвазе, наколькі сур'ёзна вы можаце ўспрымаць аперацыю, у якой удзельнічаюць Эштан Катчэр і каля мільёна спасылак на Тэрмінатара? У мінулым шмат асвятлення ў СМІ было з вялікім энтузіязмам, прэса, магчыма, занадта ўсхваляваная выкарыстаннем такіх слоў, як «біялагічны працэсар» і «квантавыя вылічэнні».

    Але на гэты раз хайп-машына крыху больш неахвотна аўтаматычна пераключаецца на перадачу. Як нядаўна адзначыў Гэры Маркус The New Yorker, многія з гэтых гісторый «у лепшым выпадку заблытаныя», фактычна не даючы нічога новага і паўтараючы інфармацыю аб тэхналогіях, якія ў нас ужо ёсць і выкарыстоўваюцца. І гэта працягваецца дзесяцігоддзі. Проста праверце Perceptron і вы можаце атрымаць уяўленне аб тым, наколькі іржавы гэты тэхнічны цягнік на самай справе. Тым не менш, багатыя людзі ўскокваюць на цягнік з грашыма, і, здаецца, ён не спыніцца ў бліжэйшы час. 

    Тэгі
    катэгорыя
    Тэгі
    Тэматычнае поле