„Zastępczy” start-up AI ekscytuje elitę Doliny Krzemowej – ale czy to tylko szum?

„Zastępczy” start-up AI ekscytuje elitę Doliny Krzemowej – ale czy to tylko szum?
ŹRÓDŁO OBRAZU: Zdjęcie za pośrednictwem tb-nguyen.blogspot.com

„Zastępczy” start-up AI ekscytuje elitę Doliny Krzemowej – ale czy to tylko szum?

    • Autor Nazwa
      Lorena Marcha
    • Autor Twitter Uchwyt
      !

    Pełna historia (użyj TYLKO przycisku „Wklej z programu Word”, aby bezpiecznie skopiować i wkleić tekst z dokumentu programu Word)

    Startup zajmujący się sztuczną inteligencją Vicarious cieszy się ostatnio dużym zainteresowaniem i nie do końca wiadomo dlaczego. Wielu wpływowych osobistości z Doliny Krzemowej otworzyło swoje osobiste portfele i wydało duże pieniądze na wsparcie badań firmy. Ich strona internetowa prezentuje niedawny napływ funduszy od takich osobistości jak dyrektor generalny Amazon Jeff Bezos, współzałożyciel Yahoo Jerry Yang, współzałożyciel Skype'a Janus Friis, założyciel Facebooka Mark Zuckerberg i... Ashton Kutcher. Tak naprawdę nie wiadomo, na co idą te wszystkie pieniądze. Sztuczna inteligencja jest ostatnio bardzo tajemniczym i ochronnym obszarem rozwoju technologicznego, ale publiczna debata na temat pojawienia się i wykorzystania długo oczekiwanej sztucznej inteligencji w prawdziwym świecie nie została wyciszona. Vicarious był czarnym koniem na scenie technologicznej.

    Choć o firmie zrobiło się głośno, zwłaszcza od czasu, gdy zeszłej jesieni w jej komputerach złamano „CAPTCHA”, udało jej się pozostać nieuchwytnym i tajemniczym graczem. Na przykład nie podają swojego adresu w obawie przed szpiegostwem korporacyjnym, a nawet wizyta na ich stronie internetowej sprawi, że nie będziesz wiedział, czym właściwie się zajmują. Całe to udawanie trudnego do zdobycia wciąż przyciąga inwestorów. Głównym projektem Vicarious była budowa sieci neuronowej zdolnej do replikacji części ludzkiego mózgu kontrolującej wzrok, ruchy ciała i język.

    Współzałożyciel Scott Phoenix powiedział, że firma próbuje „zbudować komputer, który będzie myślał jak człowiek, z tą różnicą, że nie będzie musiał jeść ani spać”. Dotychczas projekt Vicarious skupiał się na wizualnym rozpoznawaniu obiektów: najpierw za pomocą zdjęć, potem filmów, a w końcu innych aspektów ludzkiej inteligencji i uczenia się. Współzałożyciel Dileep George, wcześniej główny badacz w firmie Numenta, kładzie nacisk na analizę przetwarzania danych percepcyjnych w pracy firmy. Plan jest taki, aby ostatecznie stworzyć maszynę, która może nauczyć się „myśleć” za pomocą szeregu wydajnych algorytmów bez nadzoru. Naturalnie, to bardzo przeraża ludzi.

    Przez lata możliwość, że sztuczna inteligencja stanie się częścią prawdziwego życia, natychmiast wywołała odruchowe odniesienia do Hollywood. Oprócz obaw, że roboty stracą ludzkie miejsca pracy, ludzie autentycznie obawiają się, że już niedługo znajdziemy się w sytuacji podobnej do tej przedstawionej w Matrixie. Współzałożyciel Tesla Motors i PayPal, Elon Musk, również inwestor, wyraził obawy dotyczące sztucznej inteligencji w niedawnym wywiadzie dla CNBC.

    „Lubię po prostu mieć oko na to, co dzieje się ze sztuczną inteligencją” – powiedział Musk. „Myślę, że istnieje potencjalnie niebezpieczny wynik. Były o tym filmy, wiesz, takie jak Terminator. Są pewne przerażające skutki. Powinniśmy starać się mieć pewność, że wyniki będą dobre, a nie złe”.

    Stephen Hawking wtrącił swoje trzy grosze, potwierdzając w zasadzie naszą obawę, że powinniśmy się bać. Jego ostatnie komentarze w Niezależne wywołało zamieszanie w mediach, wywołując takie nagłówki, jak „Stephen Hawking boi się sztucznej inteligencji” w Huffington Post i genialny artykuł MSNBC „Sztuczna inteligencja może zakończyć ludzkość!” Komentarze Hawkinga były znacznie mniej apokaliptyczne i sprowadzały się do rozsądnego ostrzeżenia: „Sukces w stworzeniu sztucznej inteligencji byłby największym wydarzeniem w historii ludzkości.

    Niestety, może być też ostatnim, jeśli nie nauczymy się unikać zagrożeń. Długoterminowy wpływ sztucznej inteligencji zależy od tego, czy w ogóle da się ją kontrolować.” Ta kwestia „kontroli” wytrąciła z równowagi wielu obrońców praw robotów, którzy opowiadali się za wolnością robotów, twierdząc, że próba „kontroli” tych myślących istot byłaby okrutna i równałaby się formie niewolnictwa, i że musimy pozwolić roboty będą wolne i będą żyć pełnią życia (Tak, tacy aktywiści istnieją.)

    Należy rozwiązać wiele luźnych spraw, zanim ludzie dadzą się ponieść emocjom. Po pierwsze, Vicarious nie tworzy ligi robotów, które będą miały uczucia, myśli i osobowości ani nie będą chciały powstać przeciwko ludziom, którzy je stworzyli, i przejąć władzę nad światem. Ledwo rozumieją żarty. Jak dotąd prawie niemożliwe było nauczenie komputerów czegokolwiek, co przypominałoby uliczny zmysł, ludzką „sensowność” i ludzkie subtelności.

    Na przykład projekt realizowany w Stanford pod nazwą „Głęboko poruszający”, przeznaczony do interpretowania recenzji filmów i wystawiania recenzji z aprobatą lub kciukiem w dół, był całkowicie niezdolny do odczytania sarkazmu i ironii. Ostatecznie Vicarious nie mówi o symulacji ludzkiego doświadczenia. Ogólnie rzecz biorąc stwierdzenie, że komputery Vicarious będą „myśleć” jak ludzie, jest dość niejasne. Musimy wymyślić inne słowo na „myśleć” w tym kontekście. Mówimy o komputerach, które potrafią uczyć się poprzez rozpoznawanie – przynajmniej na razie.

    Co to oznacza? Zmiany, do których realistycznie zmierzamy, mają bardziej praktyczne i mające zastosowanie cechy, takie jak rozpoznawanie twarzy, samochody autonomiczne, diagnostyka medyczna, tłumaczenie tekstu (w końcu zdecydowanie moglibyśmy użyć czegoś lepszego niż Tłumacz Google) i hybrydyzacja technologii. Najgłupsze w tym wszystkim jest to nic z tego nie jest nowe. Guru technologii i prezes Towarzystwa Sztucznej Inteligencji Ogólnej, zauważa dr Ben Goertzel jego blog„Jeśli wybrałbyś inne problemy, takie jak bycie posłańcem rowerowym na zatłoczonej ulicy Nowego Jorku, napisanie artykułu w gazecie na temat nowo rozwijającej się sytuacji, nauka nowego języka w oparciu o doświadczenia ze świata rzeczywistego lub identyfikacja najbardziej znaczących wydarzeń ludzkich spośród wszystkich interakcji między ludźmi w dużym, zatłoczonym pomieszczeniu, wówczas okazałoby się, że dzisiejsze metody statystyczne [uczenia maszynowego] nie są zbyt przydatne”.

    Są tylko pewne rzeczy, których maszyny jeszcze nie rozumieją, i takie, których nie da się ująć w algorytmie. Jesteśmy świadkami szumu przypominającego kulę śnieżną, który, przynajmniej jak dotąd, okazał się w większości bzdurą. Ale szum sam w sobie może być niebezpieczny. Jako dyrektor ds. badań nad sztuczną inteligencją Facebooka i założyciel Centrum nauki o danych Uniwersytetu Nowojorskiego, Yann LeCun opublikował publicznie post na jego stronę Google+: „Szum jest niebezpieczny dla sztucznej inteligencji. W ciągu ostatnich pięciu dekad szum czterokrotnie zabił sztuczną inteligencję. Należy położyć kres szumowi wokół sztucznej inteligencji.”

    Kiedy jesienią ubiegłego roku Vicarious złamał CAPTCHA, LeCun był sceptyczny wobec szaleństwa mediów, wskazując na kilka bardzo ważnych faktów: „1. Łamanie CAPTCHA nie jest interesującym zadaniem, chyba że jesteś spamerem; 2. Łatwo jest ogłosić sukces na podstawie samodzielnie przygotowanego zbioru danych.” Następnie poradził dziennikarzom technologicznym: „Proszę, nie wierzcie niejasnym twierdzeniom start-upów zajmujących się sztuczną inteligencją, chyba że zapewniają one najnowocześniejsze wyniki w oparciu o powszechnie akceptowane testy porównawcze” i radzi, aby wystrzegać się wymyślnego lub niejasnego żargonu, takiego jak „oprogramowanie do uczenia maszynowego oparte na zasady obliczeniowe ludzkiego mózgu” lub „rekursywna sieć korowa”.

    Według standardów LeCuna rozpoznawanie obiektów i obrazów jest zdecydowanie bardziej imponującym krokiem w rozwoju sztucznej inteligencji. Większą wiarę pokłada w pracy grup takich jak Deep Mind, które mogą pochwalić się dobrym doświadczeniem w prestiżowych publikacjach i rozwoju technologii oraz pracującym dla nich znakomitym zespołem naukowców i inżynierów. „Być może Google przepłacił Deep Mind” – mówi LeCun – „ale udało mu się pozyskać za te pieniądze sporą grupę mądrych ludzi. Chociaż część działań Deep Mind jest utrzymywana w tajemnicy, firma publikuje artykuły na najważniejszych konferencjach”. Opinia LeCuna na temat Vicarious jest zupełnie inna: „Vicarious to tylko dym i lustra” – mówi. „Ludzie nie mają żadnych osiągnięć (a jeśli je mają, to są to tylko szumy i brak realizacji).

    Nigdy nie wnieśli żadnego wkładu w sztuczną inteligencję, uczenie maszynowe ani wizję komputerową. Nie ma żadnych informacji na temat stosowanych przez nich metod i algorytmów. Nie ma też żadnych wyników w standardowych zbiorach danych, które mogłyby pomóc społeczności w ocenie jakości stosowanych przez nią metod. To wszystko jest szumem. Istnieje wiele start-upów zajmujących się sztuczną inteligencją/uczeniem głębokim, które robią ciekawe rzeczy (głównie stosując metody niedawno opracowane w środowisku akademickim). To dla mnie zaskakujące, że Vicarious przyciąga tak wiele uwagi (i pieniędzy) jedynie dzikimi, bezpodstawnymi twierdzeniami.”

    Być może to wspomnienie pseudokultowych ruchów duchowych angażuje celebrytów. Sprawia to, że całość wydaje się trochę sztuczna lub przynajmniej częściowo fantastyczna. To znaczy, jak poważnie można traktować operację, w którą zaangażowany jest Ashton Kutcher i około milion odniesień do Terminatora? W przeszłości większość doniesień w mediach była niezwykle entuzjastyczna, a prasa być może zbyt podekscytowana używaniem takich słów, jak „procesor inspirowany biologicznie” i „obliczenia kwantowe”.

    Ale tym razem machina szumu jest nieco bardziej niechętna do automatycznego włączenia biegu. Jak zauważył niedawno Gary Marcus w New Yorker, wiele z tych historii jest w najlepszym razie „niejasnych”, w rzeczywistości nie przekazując niczego nowego i powtarzając informacje na temat technologii, którą już mamy i używamy. I ta sprawa toczy się już od dekady. Po prostu sprawdź perceptron i możesz sobie wyobrazić, jak zardzewiały jest ten pociąg technologiczny. To powiedziawszy, bogaci ludzie wskakują do pociągu z pieniędzmi i nie wygląda na to, żeby miał się on szybko zatrzymać. 

    PRZYSZŁY CZAS