Gesty, hologramy i przesyłanie myśli w stylu matrix

KREDYT WZROKU: Quantumrun

Gesty, hologramy i przesyłanie myśli w stylu matrix

    Najpierw były to karty dziurkowane, potem kultowa mysz i klawiatura. Narzędzia i systemy, których używamy do współpracy z komputerami, pozwalają nam kontrolować i budować otaczający nas świat w sposób niewyobrażalny dla naszych przodków. Aby mieć pewność, przeszliśmy długą drogę, ale jeśli chodzi o interfejs użytkownika (UI, czyli sposób, w jaki wchodzimy w interakcję z systemami komputerowymi), tak naprawdę jeszcze nic nie widzieliśmy.

    W dwóch ostatnich częściach naszej serii Future of Computers zbadaliśmy, jak nadchodzące innowacje zmienią kształt skromnych microchip i Napęd z kolei wywoła globalne rewolucje w biznesie i społeczeństwie. Ale te innowacje bledną w porównaniu z przełomowymi odkryciami interfejsu użytkownika, które są obecnie testowane w laboratoriach naukowych i garażach na całym świecie.

    Za każdym razem, gdy ludzkość wymyślała nową formę komunikacji – czy to mowa, słowo pisane, prasa drukarska, telefon, Internet – nasze zbiorowe społeczeństwo rozkwitało nowymi ideami, nowymi formami społeczności i całkowicie nowymi gałęziami przemysłu. Nadchodząca dekada będzie świadkiem kolejnej ewolucji, kolejnego skoku kwantowego w komunikacji i wzajemnych połączeniach… i może po prostu zmienić to, co to znaczy być człowiekiem.

    Czym właściwie jest dobry interfejs użytkownika?

    Era szturchania, szczypania i przesuwania po komputerach, aby zrobić to, czego chcieliśmy, rozpoczęła się dziesięć lat temu. Dla wielu zaczęło się od iPoda. Tam, gdzie kiedyś byliśmy przyzwyczajeni do klikania, pisania na klawiaturze i naciskania solidnych przycisków, aby przekazać naszą wolę maszynom, iPod spopularyzował koncepcję przesuwania palcem w lewo lub w prawo po okręgu, aby wybrać muzykę, której chcieliśmy posłuchać.

    Smartfony z ekranem dotykowym również zaczęły wchodzić na rynek w tym czasie, wprowadzając szereg innych dotykowych poleceń, takich jak szturchnięcie (symulacja naciskania przycisku), szczypanie (aby powiększać i pomniejszać), naciskanie, przytrzymywanie i przeciąganie (aby pominąć między programami, zwykle). Te dotykowe polecenia szybko zyskały popularność wśród publiczności z wielu powodów: były nowe. Wszystkie fajne (sławne) dzieciaki to robiły. Technologia ekranu dotykowego stała się tania i popularna. Ale przede wszystkim ruchy były naturalne, intuicyjne.

    Na tym polega dobry interfejs użytkownika komputera: tworzenie bardziej naturalnych i intuicyjnych sposobów interakcji z oprogramowaniem i urządzeniami. I to jest podstawowa zasada, która będzie przyświecać przyszłym urządzeniom interfejsu użytkownika, o których będziesz się uczyć.

    Szturchanie, szczypanie i przesuwanie w powietrzu

    Od 2015 r. smartfony zastąpiły standardowe telefony komórkowe w większości krajów rozwiniętych. Oznacza to, że duża część świata jest teraz zaznajomiona z różnymi poleceniami dotykowymi wspomnianymi powyżej. Dzięki aplikacjom i grom użytkownicy smartfonów nauczyli się wielu abstrakcyjnych umiejętności kontrolowania superkomputerów w swoich kieszeniach.

    To właśnie te umiejętności przygotują konsumentów na kolejną falę urządzeń — urządzeń, które pozwolą nam łatwiej łączyć cyfrowy świat z naszymi rzeczywistymi środowiskami. Przyjrzyjmy się więc niektórym narzędziom, których będziemy używać do poruszania się po naszym przyszłym świecie.

    Sterowanie gestami na świeżym powietrzu. Od 2015 r. wciąż jesteśmy w mikroerze sterowania dotykowego. Nadal szturchamy, szczypiemy i przesuwamy sobie drogę przez nasze mobilne życie. Ale ta kontrola dotykowa powoli ustępuje miejsca kontroli gestów na świeżym powietrzu. Dla graczy pierwszą interakcją z tym może być granie w nadmiernie aktywne gry Nintendo Wii lub najnowsze gry Xbox Kinect — obie konsole wykorzystują zaawansowaną technologię przechwytywania ruchu, aby dopasować ruchy gracza do awatarów gry.

    Cóż, ta technologia nie ogranicza się do gier wideo i tworzenia filmów na zielonym ekranie; Wkrótce wejdzie na szerszy rynek elektroniki użytkowej. Jednym z uderzających przykładów tego, jak to może wyglądać, jest przedsięwzięcie Google o nazwie Project Soli (obejrzyj jego niesamowite i krótkie wideo demonstracyjne) tutaj). Twórcy tego projektu używają miniaturowego radaru do śledzenia drobnych ruchów dłoni i palców, aby symulować szturchanie, szczypanie i przesuwanie na świeżym powietrzu zamiast na ekranie. Jest to rodzaj technologii, która sprawi, że urządzenia do noszenia będą łatwiejsze w użyciu, a tym samym bardziej atrakcyjne dla szerszego grona odbiorców.

    Trójwymiarowy interfejs. Kontynuując tę ​​kontrolę gestów na świeżym powietrzu wzdłuż jej naturalnego postępu, w połowie lat dwudziestych możemy zobaczyć tradycyjny interfejs pulpitu — sprawdzoną klawiaturę i mysz — powoli zastępowany przez interfejs gestów, w tym samym stylu spopularyzowanym przez film Mniejszość Raport. W rzeczywistości John Underkoffler, badacz interfejsu, doradca naukowy i wynalazca holograficznych scen interfejsu gestów z Raportu mniejszości, pracuje obecnie nad wersja z prawdziwego życia— technologia, którą określa jako przestrzenne środowisko operacyjne interfejsu człowiek-maszyna.

    Korzystając z tej technologii, pewnego dnia usiądziesz lub staniesz przed dużym wyświetlaczem i użyjesz różnych gestów, aby sterować komputerem. Wygląda naprawdę fajnie (patrz link powyżej), ale jak można się domyślić, gesty ręczne mogą być świetne do pomijania kanałów telewizyjnych, wskazywania/klikania w linki lub projektowania trójwymiarowych modeli, ale nie będą działać tak dobrze podczas pisania długich eseje. Dlatego w miarę jak technologia gestów na świeżym powietrzu jest stopniowo wprowadzana do coraz większej liczby urządzeń elektroniki użytkowej, prawdopodobnie dołączą do niej uzupełniające funkcje interfejsu użytkownika, takie jak zaawansowane polecenia głosowe i technologia śledzenia tęczówki.

    Tak, skromna, fizyczna klawiatura może jeszcze przetrwać do lat dwudziestych… przynajmniej do czasu, gdy te dwie kolejne innowacje w pełni zdigitalizują ją do końca tej dekady.

    Hologramy dotykowe. Hologramy, które wszyscy widzieliśmy osobiście lub w filmach, są zwykle projekcjami światła 2D lub 3D, które pokazują przedmioty lub ludzi unoszących się w powietrzu. Wspólną cechą tych projekcji jest to, że jeśli sięgniesz po nie, dostaniesz tylko garść powietrza. To nie będzie trwało długo.

    Nowe technologie (patrz przykłady: pierwszej i drugiej) są opracowywane w celu tworzenia hologramów, których można dotknąć (lub przynajmniej naśladować wrażenie dotyku, tj. haptyki). W zależności od zastosowanej techniki, czy to fal ultradźwiękowych, czy projekcji plazmowej, hologramy dotykowe otworzą zupełnie nową branżę produktów cyfrowych, które można wykorzystać w prawdziwym świecie.

    Pomyśl o tym, zamiast fizycznej klawiatury możesz mieć holograficzną, która może dać Ci fizyczne wrażenie pisania, gdziekolwiek stoisz w pokoju. Ta technologia będzie głównym nurtem Interfejs raportu mniejszości na świeżym powietrzu i zakończyć erę tradycyjnego komputera stacjonarnego.

    Wyobraź sobie: zamiast nosić nieporęcznego laptopa, pewnego dnia możesz nosić mały kwadratowy wafel (może wielkości pudełka na płyty CD), który będzie wyświetlał dotykowy ekran i klawiaturę. Idąc krok dalej, wyobraź sobie biuro z samym biurkiem i krzesłem, a następnie za pomocą prostego polecenia głosowego całe biuro projektuje się wokół ciebie — holograficzna stacja robocza, dekoracje ścienne, rośliny itp. Zakupy mebli lub dekoracji w przyszłości może wiązać się z wizytą w sklepie z aplikacjami wraz z wizytą w Ikei.

    Rzeczywistość wirtualna i rozszerzona. Podobnie jak opisane powyżej hologramy dotykowe, rzeczywistość wirtualna i rozszerzona będzie odgrywać podobną rolę w interfejsie użytkownika w latach dwudziestych. Każdy z nich będzie miał swoje własne artykuły, które w pełni je wyjaśnią, ale do celów tego artykułu warto wiedzieć, co następuje: Rzeczywistość wirtualna będzie w dużej mierze ograniczona do zaawansowanych gier, symulacji treningowych i abstrakcyjnej wizualizacji danych przez następną dekadę.

    Tymczasem rzeczywistość rozszerzona będzie miała znacznie szerszy komercyjny urok, ponieważ nałoży informacje cyfrowe na świat rzeczywisty; jeśli kiedykolwiek widziałeś film promujący szkło Google (wideo), wtedy zrozumiesz, jak użyteczna może być ta technologia pewnego dnia, gdy dojrzeje do połowy lat dwudziestych.

    Twój wirtualny asystent

    Omówiliśmy formy dotykowe i ruchowe interfejsu użytkownika, aby przejąć nasze przyszłe komputery i elektronikę. Teraz nadszedł czas, aby poznać inną formę interfejsu użytkownika, która może wydawać się jeszcze bardziej naturalna i intuicyjna: mowa.

    Ci, którzy posiadają najnowsze modele smartfonów, najprawdopodobniej już doświadczyli rozpoznawania mowy, czy to w postaci Siri na iPhonie, Google Now na Androida czy Windows Cortana. Usługi te zostały zaprojektowane tak, aby umożliwić Ci łączenie się z telefonem i uzyskiwanie dostępu do internetowego banku wiedzy, po prostu mówiąc ustnie tym „wirtualnym asystentom”, czego chcesz.

    To niesamowite osiągnięcie inżynieryjne, ale też nie do końca idealne. Każdy, kto bawił się tymi usługami, wie, że często źle interpretują twoją mowę (szczególnie w przypadku osób z grubym akcentem) i czasami dają ci odpowiedź, której nie szukałeś.

    Na szczęście te wady nie potrwają długo. Google ogłosił w maju 2015 r., że technologia rozpoznawania mowy ma teraz tylko 2020% wskaźnik błędów i maleje. Kiedy połączysz ten spadający wskaźnik błędów z ogromnymi innowacjami zachodzącymi w mikrochipach i przetwarzaniu w chmurze, możemy oczekiwać, że wirtualni asystenci staną się przerażająco dokładni do XNUMX roku.

    Obejrzyj ten film jako przykład tego, co jest możliwe i co stanie się publicznie dostępne w ciągu kilku krótkich lat.

    Może to być szokujące, ale wirtualni asystenci, którzy są obecnie projektowani, nie tylko doskonale zrozumieją twoją mowę, ale także zrozumieją kontekst pytań, które zadajesz; rozpoznają pośrednie sygnały wysyłane przez ton głosu; będą nawet angażować się w długie rozmowy z Tobą, Jej-styl.

    Ogólnie rzecz biorąc, wirtualni asystenci bazujący na rozpoznawaniu głosu staną się głównym sposobem, w jaki uzyskujemy dostęp do sieci, zaspokajając nasze codzienne potrzeby informacyjne. Tymczasem fizyczne formy interfejsu użytkownika zbadane wcześniej prawdopodobnie zdominują naszą aktywność cyfrową związaną z rozrywką i pracą. Ale to nie koniec naszej podróży z interfejsem użytkownika, daleko od tego.

    Wejdź do matrycy za pomocą interfejsu komputera mózgowego

    Kiedy myślałeś, że omówiliśmy to wszystko, istnieje jeszcze jedna forma komunikacji, która jest jeszcze bardziej intuicyjna i naturalna niż dotyk, ruch i mowa, jeśli chodzi o sterowanie maszynami: sama myśl.

    Ta nauka jest dziedziną bioelektroniki o nazwie interfejs mózg-komputer (BCI). Polega na użyciu implantu lub urządzenia skanującego mózg do monitorowania fal mózgowych i powiązania ich z poleceniami, aby kontrolować wszystko, co jest uruchamiane przez komputer.

    W rzeczywistości może nie zdawałeś sobie z tego sprawy, ale wczesne dni BCI już się rozpoczęły. Osoby po amputacji są teraz testowanie robotycznych kończyn kontrolowane bezpośrednio przez umysł, a nie przez czujniki przymocowane do kikuta osoby noszącej. Podobnie osoby z poważnymi niepełnosprawnościami (takie jak tetraplegicy) są teraz używanie BCI do sterowania zmotoryzowanymi wózkami inwalidzkimi i manipulować ramionami robotów. Ale pomaganie osobom po amputacji i niepełnosprawnym w prowadzeniu bardziej niezależnego życia nie jest zakresem możliwości BCI. Oto krótka lista eksperymentów, które są obecnie w toku:

    Kontrolowanie rzeczy. Badacze z powodzeniem wykazali, w jaki sposób BCI może umożliwić użytkownikom sterowanie funkcjami domowymi (oświetlenie, zasłony, temperatura), a także szeregiem innych urządzeń i pojazdów. Zegarek wideo demonstracyjne.

    Kontrolowanie zwierząt. Laboratorium pomyślnie przetestowało eksperyment BCI, w którym człowiek był w stanie wykonać szczur laboratoryjny porusza ogonem używając tylko swoich myśli.

    Mózg na tekst. Drużyny w US i Niemcy opracowują system, który dekoduje fale mózgowe (myśli) na tekst. Wstępne eksperymenty okazały się skuteczne i mają nadzieję, że ta technologia nie tylko pomoże przeciętnemu człowiekowi, ale także zapewni osobom z poważnymi niepełnosprawnościami (jak znany fizyk Stephen Hawking) łatwiejszą komunikację ze światem.

    Mózg do mózgu. Międzynarodowy zespół naukowców był w stanie naśladować telepatię jedna osoba z Indii pomyślała o słowie „cześć”, a przez BCI to słowo zostało przekształcone z fal mózgowych na kod binarny, a następnie wysłane e-mailem do Francji, gdzie ten kod binarny został z powrotem zamieniony na fale mózgowe, aby było postrzegane przez osobę odbierającą . Komunikacja mózg-mózg, ludzie!

    Nagrywanie snów i wspomnień. Naukowcy z Berkeley w Kalifornii poczynili niewiarygodne postępy w konwersji fale mózgowe w obrazy. Osobom testowym zaprezentowano serię obrazów po podłączeniu do czujników BCI. Te same obrazy zostały następnie zrekonstruowane na ekranie komputera. Zrekonstruowane obrazy były bardzo ziarniste, ale biorąc pod uwagę około dekadę czasu opracowywania, ten weryfikacja koncepcji pewnego dnia pozwoli nam porzucić kamerę GoPro, a nawet nagrać nasze sny.

    Mówisz, że zostaniemy czarodziejami?

    Zgadza się, wszyscy, do lat 2030. XX wieku i włączenia do głównego nurtu pod koniec lat 2040. ludzie zaczną komunikować się ze sobą i ze zwierzętami, kontrolować komputery i elektronikę, dzielić się wspomnieniami i snami oraz poruszać się po sieci, a wszystko to za pomocą naszych umysłów.

    Wiem, o czym myślisz: Tak, to szybko się nasiliło. Ale co to wszystko znaczy? W jaki sposób te technologie interfejsu użytkownika zmienią nasze wspólne społeczeństwo? Cóż, myślę, że wystarczy przeczytać ostatnią część naszej serii Future of Computers, aby się dowiedzieć.

    PRZYSZŁOŚĆ SERII KOMPUTERÓW LINKI

    Spowalniający apetyt Mooresa na bity, bajty i łokcie: przyszłość komputerów P1

    Rewolucja cyfrowej pamięci masowej: przyszłość komputerów P2

    Społeczeństwo i pokolenie hybryd: przyszłość komputerów P4

    Następna zaplanowana aktualizacja tej prognozy

    2023-01-26

    Odniesienia do prognoz

    W tej prognozie odniesiono się do następujących powiązań popularnych i instytucjonalnych:

    W tej prognozie odniesiono się do następujących linków Quantumrun: