Pożegnaj się z myszką i klawiaturą, nowe interfejsy użytkownika, aby na nowo zdefiniować ludzkość: Przyszłość komputerów P1

KREDYT WZROKU: Quantumrun

Pożegnaj się z myszką i klawiaturą, nowe interfejsy użytkownika, aby na nowo zdefiniować ludzkość: Przyszłość komputerów P1

    Najpierw były to karty dziurkowane; potem była to kultowa mysz i klawiatura. Narzędzia i systemy, których używamy do współpracy z komputerami, pozwalają nam kontrolować i budować otaczający nas świat w sposób niewyobrażalny dla naszych przodków. Dla pewności przebyliśmy długą drogę, ale jeśli chodzi o interfejs użytkownika (UI, środki, za pomocą których wchodzimy w interakcję z systemami komputerowymi), nie widzieliśmy jeszcze niczego.

    Niektórzy mogą powiedzieć, że dziwnie jest rozpoczynać naszą serię Przyszłość komputerów od rozdziału o interfejsie użytkownika, ale to sposób, w jaki używamy komputerów, nada znaczenie innowacjom, które badamy w pozostałej części tej serii.

    Za każdym razem, gdy ludzkość wymyślała nową formę komunikacji — czy to mowa, słowo pisane, prasa drukarska, telefon, Internet — nasze zbiorowe społeczeństwo rozkwitało nowymi ideami, nowymi formami społeczności i zupełnie nowymi gałęziami przemysłu. Nadchodząca dekada będzie świadkiem kolejnej ewolucji, kolejnego skoku kwantowego w komunikacji i wzajemnych połączeniach, całkowicie pośredniczonych przez szereg przyszłych interfejsów komputerowych… i może po prostu zmienić to, co to znaczy być człowiekiem.

    Czym właściwie jest „dobry” interfejs użytkownika?

    Era szturchania, szczypania i przesuwania po komputerach, aby zrobić to, czego chcieliśmy, rozpoczęła się ponad dekadę temu. Dla wielu zaczęło się od iPoda. Tam, gdzie kiedyś byliśmy przyzwyczajeni do klikania, pisania i naciskania solidnych przycisków, aby przekazać maszynom naszą wolę, iPod spopularyzował koncepcję przesuwania palcem w lewo lub w prawo po okręgu, aby wybrać muzykę, której chcesz posłuchać.

    Niedługo potem na rynek weszły smartfony z ekranem dotykowym, wprowadzając szereg innych dotykowych poleceń, takich jak poke (symuluje naciśnięcie przycisku), szczypanie (aby powiększyć i pomniejszyć), naciśnij, przytrzymaj i przeciągnij. Te dotykowe polecenia szybko zyskały popularność wśród publiczności z wielu powodów: były nowe. Wszystkie fajne (sławne) dzieciaki to robiły. Technologia ekranu dotykowego stała się tania i popularna. Ale przede wszystkim ruchy były intuicyjne, naturalne.

    Na tym polega dobry interfejs użytkownika komputera: tworzenie bardziej naturalnych sposobów interakcji z oprogramowaniem i urządzeniami. I to jest podstawowa zasada, która będzie przyświecać przyszłym urządzeniom interfejsu użytkownika, o których będziesz się uczyć.

    Szturchanie, szczypanie i przesuwanie w powietrzu

    Od 2018 r. smartfony zastąpiły standardowe telefony komórkowe w większości krajów rozwiniętych. Oznacza to, że duża część świata jest teraz zaznajomiona z różnymi poleceniami dotykowymi wspomnianymi powyżej. Dzięki aplikacjom i grom użytkownicy smartfonów nauczyli się wielu abstrakcyjnych umiejętności kontrolowania odpowiednich superkomputerów znajdujących się w ich kieszeniach. 

    To właśnie te umiejętności przygotują konsumentów na kolejną falę urządzeń — urządzeń, które pozwolą nam łatwiej łączyć cyfrowy świat z naszymi rzeczywistymi środowiskami. Przyjrzyjmy się więc niektórym narzędziom, których będziemy używać do poruszania się po naszym przyszłym świecie.

    Sterowanie gestami na świeżym powietrzu. Od 2018 r. wciąż jesteśmy w mikroerze sterowania dotykowego. Nadal szturchamy, szczypiemy i przesuwamy sobie drogę przez nasze mobilne życie. Ale ta kontrola dotykowa powoli ustępuje miejsca kontroli gestów na świeżym powietrzu. Dla graczy, Twoja pierwsza interakcja z tym może polegać na graniu w nadmiernie aktywne gry Nintendo Wii lub Xbox Kinect — obie konsole wykorzystują zaawansowaną technologię przechwytywania ruchu, aby dopasować ruchy gracza do awatarów gry. 

    Cóż, ta technologia nie ogranicza się do gier wideo i tworzenia filmów na zielonym ekranie, wkrótce wejdzie na szerszy rynek elektroniki użytkowej. Jednym z uderzających przykładów tego, jak to może wyglądać, jest przedsięwzięcie Google o nazwie Project Soli (obejrzyj jego niesamowite i krótkie wideo demonstracyjne) tutaj). Twórcy tego projektu używają miniaturowego radaru do śledzenia drobnych ruchów dłoni i palców, aby symulować szturchanie, szczypanie i przesuwanie na świeżym powietrzu zamiast na ekranie. Jest to rodzaj technologii, która sprawi, że urządzenia do noszenia będą łatwiejsze w użyciu, a tym samym bardziej atrakcyjne dla szerszego grona odbiorców.

    Trójwymiarowy interfejs. Kontynuując tę ​​kontrolę gestów na świeżym powietrzu wzdłuż jej naturalnego postępu, w połowie lat dwudziestych możemy zobaczyć tradycyjny interfejs pulpitu — sprawdzoną klawiaturę i mysz — powoli zastępowany przez interfejs gestów, w tym samym stylu spopularyzowanym przez film Mniejszość Raport. W rzeczywistości John Underkoffler, badacz interfejsu, doradca naukowy i wynalazca holograficznych scen interfejsu gestów z Raportu mniejszości, pracuje obecnie nad wersja z życia wzięta— technologia, którą określa jako przestrzenne środowisko operacyjne interfejsu człowiek-maszyna. (Prawdopodobnie będzie musiał wymyślić do tego przydatny akronim.)

    Korzystając z tej technologii, pewnego dnia usiądziesz lub staniesz przed dużym wyświetlaczem i użyjesz różnych gestów, aby sterować komputerem. Wygląda naprawdę fajnie (patrz link powyżej), ale jak można się domyślić, gesty ręczne mogą być świetne do pomijania kanałów telewizyjnych, wskazywania/klikania w linki lub projektowania trójwymiarowych modeli, ale nie będą działać tak dobrze podczas pisania długich eseje. Dlatego w miarę jak technologia gestów na świeżym powietrzu jest stopniowo wprowadzana do coraz większej liczby urządzeń elektroniki użytkowej, prawdopodobnie dołączą do niej uzupełniające funkcje interfejsu użytkownika, takie jak zaawansowane polecenia głosowe i technologia śledzenia tęczówki. 

    Tak, skromna, fizyczna klawiatura może jeszcze przetrwać do lat dwudziestych.

    Hologramy dotykowe. Hologramy, które wszyscy widzieliśmy osobiście lub w filmach, są zwykle projekcjami światła 2D lub 3D, które pokazują przedmioty lub ludzi unoszących się w powietrzu. Wspólną cechą tych projekcji jest to, że jeśli sięgniesz po nie, dostaniesz tylko garść powietrza. Tak się nie stanie do połowy lat dwudziestych.

    Nowe technologie (patrz przykłady: pierwszej i drugiej) są opracowywane w celu tworzenia hologramów, których można dotknąć (lub przynajmniej naśladować wrażenie dotyku, tj. haptyki). W zależności od zastosowanej techniki, czy to fal ultradźwiękowych, czy projekcji plazmowej, hologramy dotykowe otworzą zupełnie nową branżę produktów cyfrowych, które możemy wykorzystać w prawdziwym świecie.

    Pomyśl o tym, zamiast fizycznej klawiatury możesz mieć holograficzną, która może dać Ci fizyczne wrażenie pisania, gdziekolwiek stoisz w pokoju. Ta technologia będzie głównym nurtem Interfejs raportu mniejszości na świeżym powietrzu i być może zakończyć erę tradycyjnego pulpitu.

    Wyobraź sobie: zamiast nosić ze sobą nieporęczny laptop, pewnego dnia możesz nosić mały kwadratowy wafel (może wielkości cienkiego zewnętrznego dysku twardego), który będzie wyświetlał dotykowy ekran i hologram klawiatury. Idąc krok dalej, wyobraź sobie biuro z samym biurkiem i krzesłem, a następnie za pomocą prostego polecenia głosowego całe biuro projektuje się wokół ciebie — holograficzna stacja robocza, dekoracje ścienne, rośliny itp. Zakupy mebli lub dekoracji w przyszłości może wiązać się z wizytą w sklepie z aplikacjami wraz z wizytą w Ikei.

    Rozmowa z wirtualnym asystentem

    Podczas gdy powoli zmieniamy interfejs dotykowy, pojawia się nowa, uzupełniająca forma interfejsu, która może wydawać się jeszcze bardziej intuicyjna dla przeciętnego człowieka: mowa.

    Amazon zrobił kulturowy plusk, wypuszczając swój sztucznie inteligentny (AI) system osobistego asystenta Alexa, a także różne aktywowane głosem produkty asystentów domowych, które wypuścił wraz z nim. Google, rzekomy lider sztucznej inteligencji, pospiesznie poszedł w ich ślady z własnym pakietem produktów asystentów domowych. Razem, połączona wielomiliardowa konkurencja między tymi dwoma gigantami technologicznymi doprowadziła do szybkiej i powszechnej akceptacji aktywowanych głosem produktów i asystentów AI na ogólnym rynku konsumenckim. I chociaż to dopiero początek tej technologii, nie należy lekceważyć tego wczesnej fali wzrostu.

    Niezależnie od tego, czy wolisz Alexę firmy Amazon, Asystenta Google, Siri iPhone'a czy Cortanę z systemu Windows, usługi te zostały zaprojektowane tak, aby umożliwić Ci komunikowanie się z telefonem lub urządzeniem inteligentnym oraz dostęp do internetowego banku wiedzy za pomocą prostych poleceń słownych, informujących tych „wirtualnych asystentów”, co chcesz.

    To niesamowite osiągnięcie inżynierii. I nawet jeśli nie jest to idealne rozwiązanie, technologia szybko się poprawia; na przykład Google ogłosił w maju 2015 r. technologia rozpoznawania mowy ma teraz tylko osiem procent współczynnika błędów i maleje. Kiedy połączymy ten spadający wskaźnik błędów z ogromnymi innowacjami zachodzącymi w mikrochipach i przetwarzaniu w chmurze (opisanymi w kolejnych rozdziałach serii), możemy oczekiwać, że wirtualni asystenci staną się przyjemnie dokładni do 2020 roku.

    Co więcej, obecnie opracowywani wirtualni asystenci nie tylko doskonale zrozumieją Twoją mowę, ale także zrozumieją kontekst pytań, które zadajesz; rozpoznają pośrednie sygnały wysyłane przez ton głosu; będą nawet angażować się w długie rozmowy z Tobą, Jej-styl.

    Ogólnie rzecz biorąc, wirtualni asystenci bazujący na rozpoznawaniu głosu staną się głównym sposobem, w jaki uzyskujemy dostęp do sieci, zaspokajając nasze codzienne potrzeby informacyjne. Tymczasem fizyczne formy interfejsu użytkownika zbadane wcześniej prawdopodobnie zdominują naszą aktywność cyfrową związaną z rozrywką i pracą. Ale to nie koniec naszej podróży z interfejsem użytkownika, daleko od tego.

    galanterii

    Nie możemy rozmawiać o interfejsie użytkownika, nie wspominając o urządzeniach do noszenia — urządzeniach, które nosisz, a nawet wkładasz do ciała, aby pomóc Ci w interakcji cyfrowej z otaczającym Cię światem. Podobnie jak asystenci głosowi, urządzenia te będą odgrywać wspierającą rolę w sposobie, w jaki angażujemy się w przestrzeń cyfrową; użyjemy ich do określonych celów w określonych kontekstach. Jednak odkąd napisaliśmy cały rozdział o urządzeniach do noszenia w naszym Przyszłość Internetu serii, nie będziemy tutaj wchodzić w szczegóły.

    Rozszerzanie naszej rzeczywistości

    Idąc dalej, integrując wszystkie wyżej wymienione technologie to rzeczywistość wirtualna i rzeczywistość rozszerzona.

    Na podstawowym poziomie rzeczywistość rozszerzona (AR) to wykorzystanie technologii do cyfrowej modyfikacji lub poprawy postrzegania świata rzeczywistego (pomyśl o filtrach Snapchata). Nie należy tego mylić z rzeczywistością wirtualną (VR), w której świat rzeczywisty zostaje zastąpiony światem symulowanym. Dzięki AR zobaczymy otaczający nas świat za pomocą różnych filtrów i warstw bogatych w informacje kontekstowe, które pomogą nam lepiej poruszać się po świecie w czasie rzeczywistym i (prawdopodobnie) wzbogacić naszą rzeczywistość. Przyjrzyjmy się pokrótce obu skrajnościom, zaczynając od VR.

    Wirtualna rzeczywistość. Na podstawowym poziomie rzeczywistość wirtualna (VR) to wykorzystanie technologii do cyfrowego tworzenia wciągającej i przekonującej audiowizualnej iluzji rzeczywistości. I w przeciwieństwie do AR, która obecnie (2018) boryka się z wieloma różnymi przeszkodami technologicznymi i społecznymi, zanim zyskuje masową akceptację na rynku, VR jest obecna w kulturze popularnej od dziesięcioleci. Widzieliśmy to w wielu filmach i programach telewizyjnych zorientowanych na przyszłość. Wielu z nas próbowało nawet prymitywnych wersji VR na starych salonach gier oraz konferencjach i targach branżowych.

    Tym razem różni się to, że dzisiejsza technologia VR jest bardziej dostępna niż kiedykolwiek. Dzięki miniaturyzacji różnych kluczowych technologii (pierwotnie używanych do produkcji smartfonów) koszt zestawów VR spadł do punktu, w którym potężne firmy, takie jak Facebook, Sony i Google, corocznie wypuszczają masowo przystępne cenowo zestawy VR.

    Stanowi to początek zupełnie nowego medium dla rynku masowego, które stopniowo przyciągnie tysiące programistów i programistów. W rzeczywistości pod koniec lat dwudziestych aplikacje i gry VR będą generować więcej pobrań niż tradycyjne aplikacje mobilne.

    Edukacja, szkolenia zawodowe, spotkania biznesowe, wirtualna turystyka, gry i rozrywka — to tylko kilka z wielu tanich, przyjaznych dla użytkownika i realistycznych aplikacji VR, które mogą i mogą ulepszyć (jeśli nie całkowicie zakłócić). Jednak w przeciwieństwie do tego, co widzieliśmy w powieściach i filmach science fiction, przyszłość, w której ludzie spędzają cały dzień w światach VR, jest odległa o dziesięciolecia. To powiedziawszy, to, co spędzimy cały dzień, to AR.

    Rozszerzona Rzeczywistość. Jak wspomniano wcześniej, celem AR jest działanie jako filtr cyfrowy, który uzupełnia Twoje postrzeganie świata rzeczywistego. Kiedy patrzysz na swoje otoczenie, AR może poprawić lub zmienić twoje postrzeganie otoczenia lub dostarczyć przydatnych i kontekstowo istotnych informacji, które pomogą ci lepiej zrozumieć otoczenie. Aby lepiej zrozumieć, jak to może wyglądać, obejrzyj poniższe filmy:

    Pierwszy film pochodzi od wschodzącego lidera AR, Magic Leap:

     

    Następnie krótki film (6 min) Keiichi Matsudy o tym, jak może wyglądać AR w latach 2030. XX wieku:

     

    Z powyższych filmów możesz sobie wyobrazić niemal nieograniczoną liczbę aplikacji, które technologia AR pewnego dnia umożliwi, i to z tego powodu większość największych graczy technologicznych —Google, Apple, Facebook, Microsoft, Baidu, Inteli nie tylko — już inwestują duże środki w badania nad AR.

    Opierając się na opisanych wcześniej holograficznych i otwartych interfejsach gestów, AR ostatecznie pozbędzie się większości tradycyjnych interfejsów komputerowych, na których do tej pory dorastali konsumenci. Na przykład, po co mieć komputer stacjonarny lub laptop, skoro możesz założyć okulary AR i zobaczyć, jak wirtualny komputer stacjonarny lub laptop pojawiają się tuż przed tobą. Podobnie Twoje okulary AR (i później Soczewki kontaktowe AR) pozbędzie się Twojego fizycznego smartfona. Aha, i nie zapominajmy o telewizorach. Innymi słowy, większość dzisiejszej dużej elektroniki zostanie zdigitalizowana do postaci aplikacji.

    Firmy, które inwestują wcześnie, aby kontrolować przyszłe systemy operacyjne AR lub środowiska cyfrowe, skutecznie zakłócą i przejmą kontrolę nad dużym odsetkiem dzisiejszego sektora elektronicznego. Z drugiej strony, AR będzie miał również szereg zastosowań biznesowych w sektorach takich jak opieka zdrowotna, projektowanie/architektura, logistyka, produkcja, wojsko i wiele innych, które omówimy szerzej w naszej serii Przyszłość Internetu.

    A jednak wciąż nie kończy się przyszłość interfejsu użytkownika.

    Wejdź do matrycy z interfejsem mózg-komputer

    Istnieje jeszcze inna forma komunikacji, która jest jeszcze bardziej intuicyjna i naturalna niż ruch, mowa i AR, jeśli chodzi o sterowanie maszynami: sama myśl.

    Ta nauka jest dziedziną bioelektroniki o nazwie interfejs mózg-komputer (BCI). Polega na użyciu urządzenia skanującego mózg lub implantu do monitorowania fal mózgowych i kojarzenia ich z poleceniami, aby kontrolować wszystko, co jest uruchamiane przez komputer.

    W rzeczywistości może nie zdawałeś sobie z tego sprawy, ale wczesne dni BCI już się rozpoczęły. Osoby po amputacji są teraz testowanie robotycznych kończyn kontrolowane bezpośrednio przez umysł, a nie przez czujniki przymocowane do kikuta osoby noszącej. Podobnie osoby z poważnymi niepełnosprawnościami (takie jak osoby z tetraplegią) są teraz używanie BCI do sterowania zmotoryzowanymi wózkami inwalidzkimi i manipulować ramionami robotów. Ale pomaganie osobom po amputacji i niepełnosprawnym w prowadzeniu bardziej niezależnego życia nie jest zakresem możliwości BCI. Oto krótka lista eksperymentów, które są obecnie w toku:

    Kontrolowanie rzeczy. Badacze z powodzeniem wykazali, w jaki sposób BCI może umożliwić użytkownikom sterowanie funkcjami domowymi (oświetlenie, zasłony, temperatura), a także szeregiem innych urządzeń i pojazdów. Zegarek film demonstracyjny.

    Kontrolowanie zwierząt. Laboratorium pomyślnie przetestowało eksperyment BCI, w którym człowiek był w stanie wykonać szczur laboratoryjny porusza ogonem używając tylko swoich myśli.

    Mózg na tekst. Sparaliżowany mężczyzna użył implantu mózgowego wpisać osiem słów na minutę. Tymczasem zespoły w US i Niemcy opracowują system, który dekoduje fale mózgowe (myśli) na tekst. Wstępne eksperymenty zakończyły się sukcesem i mają nadzieję, że ta technologia nie tylko pomoże przeciętnemu człowiekowi, ale także zapewni osobom z poważnymi niepełnosprawnościami (jak znany fizyk Stephen Hawking) łatwiejszą komunikację ze światem.

    Mózg w mózg. Międzynarodowy zespół naukowców był w stanie naśladować telepatię jedna osoba z Indii pomyślała o słowie „cześć”, a przez BCI to słowo zostało przekształcone z fal mózgowych na kod binarny, a następnie wysłane e-mailem do Francji, gdzie ten kod binarny został z powrotem zamieniony na fale mózgowe, aby było postrzegane przez osobę odbierającą . Komunikacja mózg-mózg, ludzie!

    Nagrywanie snów i wspomnień. Naukowcy z Berkeley w Kalifornii poczynili niewiarygodne postępy w konwersji fale mózgowe w obrazy. Osobom testowym zaprezentowano serię obrazów po podłączeniu do czujników BCI. Te same obrazy zostały następnie zrekonstruowane na ekranie komputera. Zrekonstruowane obrazy były bardzo ziarniste, ale biorąc pod uwagę około dekadę czasu opracowywania, ten dowód koncepcji pewnego dnia pozwoli nam porzucić naszą kamerę GoPro, a nawet nagrać nasze sny.

    Mówisz, że zostaniemy czarodziejami?

    Na początku użyjemy zewnętrznych urządzeń do BCI, które wyglądają jak hełm lub opaska do włosów (lata 2030. XX wieku), które ostatecznie ustąpią miejsca implantom mózgowym (koniec lat 2040. XX wieku). Ostatecznie te urządzenia BCI połączą nasze umysły z cyfrową chmurą, a później będą działać jako trzecia półkula dla naszych umysłów – więc podczas gdy nasza lewa i prawa półkula zarządzają naszymi zdolnościami kreatywności i logiki, ta nowa, zasilana chmurą cyfrowa półkula ułatwi umiejętności gdzie ludzie często nie spełniają swoich odpowiedników AI, a mianowicie szybkości, powtarzalności i dokładności.

    BCI jest kluczem do rozwijającej się dziedziny neurotechnologii, której celem jest połączenie naszych umysłów z maszynami, aby uzyskać mocne strony obu światów. Zgadza się, wszyscy, do lat 2030. XX wieku i włączenia do głównego nurtu pod koniec lat 2040. ludzie będą używać BCI do ulepszania naszych mózgów, a także do komunikowania się ze sobą i ze zwierzętami, kontrolowania komputerów i elektroniki, dzielenia się wspomnieniami i snami oraz poruszania się po sieci.

    Wiem, o czym myślisz: Tak, to szybko się nasiliło.

    Ale tak ekscytujące, jak wszystkie te postępy w interfejsie użytkownika, nigdy nie będą możliwe bez równie ekscytujących postępów w oprogramowaniu i sprzęcie komputerowym. Te przełomowe odkrycia będą badane w pozostałej części tej serii Future of Computers.

    Seria Future of Computers

    Przyszłość rozwoju oprogramowania: Przyszłość komputerów P2

    Rewolucja cyfrowej pamięci masowej: przyszłość komputerów P3

    Zanikające prawo Moore'a, które zapoczątkowało fundamentalne przemyślenie mikrochipów: Przyszłość komputerów P4

    Przetwarzanie w chmurze staje się zdecentralizowane: przyszłość komputerów P5

    Dlaczego kraje konkurują o budowę największych superkomputerów? Przyszłość komputerów P6

    Jak komputery Quantum zmienią świat: Przyszłość komputerów P7     

    Następna zaplanowana aktualizacja tej prognozy

    2023-02-08

    Odniesienia do prognoz

    W tej prognozie odniesiono się do następujących powiązań popularnych i instytucjonalnych:

    W tej prognozie odniesiono się do następujących linków Quantumrun: