Gestik, hologrammer og matrix-stil sindeupload

BILLEDKREDIT: Quantumrun

Gestik, hologrammer og matrix-stil sindeupload

    Først var det hulkort, så var det den ikoniske mus og tastatur. De værktøjer og systemer, vi bruger til at interagere med computere, er det, der giver os mulighed for at kontrollere og bygge verden omkring os på måder, som vores forfædre ikke kan forestille sig. Vi er nået langt for at være sikre, men når det kommer til feltet med brugergrænseflade (UI eller de midler, hvormed vi interagerer med computersystemer), har vi virkelig ikke set noget endnu.

    I løbet af de sidste to dele af vores Future of Computers-serie undersøgte vi, hvordan de kommende innovationer vil omforme ydmyghed mikrochip , diskdrev vil til gengæld lancere globale revolutioner i erhvervslivet og samfundet. Men disse innovationer vil blegne i forhold til de UI-gennembrud, der nu bliver testet i videnskabelige laboratorier og garager over hele verden.

    Hver gang menneskeheden har opfundet en ny form for kommunikation – det være sig tale, det skrevne ord, trykpressen, telefonen, internettet – blomstrede vores kollektive samfund op med nye ideer, nye former for fællesskab og helt nye industrier. Det kommende årti vil se den næste evolution, det næste kvantespring i kommunikation og sammenkobling … og det kan bare omforme, hvad det vil sige at være menneske.

    Hvad er en god brugergrænseflade overhovedet?

    Tiden med at stikke, knibe og stryge på computere for at få dem til at gøre, hvad vi ville, begyndte for et årti siden. For mange startede det med iPod'en. Hvor vi engang var vant til at klikke, skrive og trykke ned mod robuste knapper for at kommunikere vores vilje til maskiner, populariserede iPod konceptet med at stryge til venstre eller højre på en cirkel for at vælge musik, du ville lytte til.

    Touchscreen-smartphones begyndte også at komme ind på markedet omkring det tidspunkt, og introducerede en række andre taktile kommandoprompter som poke (for at simulere tryk på en knap), knib (for at zoome ind og ud), tryk, hold og træk (for at springe over) mellem programmer, normalt). Disse taktile kommandoer vandt hurtigt indpas blandt offentligheden af ​​en række årsager: De var nye. Alle de seje (berømte) børn gjorde det. Touchscreen-teknologi blev billig og mainstream. Men mest af alt føltes bevægelserne naturlige, intuitive.

    Det er, hvad god computerbrugergrænseflade handler om: Opbygning af mere naturlige og intuitive måder at interagere med software og enheder på. Og det er kerneprincippet, der vil guide de fremtidige UI-enheder, du er ved at lære om.

    Prikker, kniber og stryger i luften

    Fra 2015 har smartphones erstattet standard mobiltelefoner i store dele af den udviklede verden. Det betyder, at en stor del af verden nu er bekendt med de forskellige taktile kommandoer nævnt ovenfor. Gennem apps og gennem spil har smartphonebrugere lært en lang række abstrakte færdigheder til at styre supercomputerne i deres lommer.

    Det er disse færdigheder, der vil forberede forbrugerne på den næste bølge af enheder – enheder, der vil give os mulighed for lettere at fusionere den digitale verden med vores virkelige miljøer. Så lad os tage et kig på nogle af de værktøjer, vi vil bruge til at navigere i vores fremtidige verden.

    Udendørs gestuskontrol. Fra 2015 er vi stadig i mikroalderen for berøringskontrol. Vi stikker, kniber og swiper os stadig gennem vores mobile liv. Men den berøringskontrol er langsomt ved at vige pladsen til en form for friluftsbevægelseskontrol. For gamerne derude kan din første interaktion med dette have været at spille overaktive Nintendo Wii-spil eller de nyeste Xbox Kinect-spil – begge konsoller bruger avanceret motion-capture-teknologi til at matche spillerbevægelser med spilavatarer.

    Nå, denne teknologi forbliver ikke begrænset til videospil og greenscreen-filmproduktion; Det vil snart komme ind på det bredere marked for forbrugerelektronik. Et slående eksempel på, hvordan dette kan se ud, er et Google-projekt ved navn Project Soli (se dens fantastiske og korte demovideo link.). Udviklere af dette projekt bruger miniatureradar til at spore de fine bevægelser af din hånd og fingre for at simulere at stikke, klemme og stryge i det fri i stedet for mod en skærm. Dette er den slags teknologi, der vil hjælpe med at gøre wearables nemmere at bruge og dermed mere attraktive for et bredere publikum.

    Tredimensionel grænseflade. Tager vi denne udendørs gestuskontrol videre langs dens naturlige progression, i midten af ​​2020'erne, kan vi se den traditionelle desktop-grænseflade - det troværdige tastatur og mus - langsomt erstattet af gestus-grænsefladen, i samme stil, som blev populært af filmen Minority Rapport. Faktisk arbejder John Underkoffler, UI-forsker, videnskabsrådgiver og opfinder af de holografiske gestus-grænsefladescener fra Minority Report, i øjeblikket på virkelige liv version-en teknologi, han omtaler som et rumligt driftsmiljø mellem menneske og maskine.

    Ved at bruge denne teknologi vil du en dag sidde eller stå foran et stort display og bruge forskellige håndbevægelser til at styre din computer. Det ser rigtig fedt ud (se linket ovenfor), men som du måske kan gætte, kan håndbevægelser være gode til at springe tv-kanaler over, pege/klikke på links eller designe tredimensionelle modeller, men de vil ikke fungere så godt, når du skriver langt essays. Det er derfor, efterhånden som friluftsbevægelsesteknologi gradvist inkluderes i mere og mere forbrugerelektronik, vil den sandsynligvis blive ledsaget af komplementære brugergrænsefladefunktioner som avanceret stemmekommando og irissporingsteknologi.

    Ja, det ydmyge, fysiske tastatur overlever muligvis endnu ind i 2020'erne ... i hvert fald indtil disse næste to innovationer digitaliserer det fuldt ud ved udgangen af ​​dette årti.

    Haptiske hologrammer. De hologrammer, vi alle har set personligt eller i filmene, har tendens til at være 2D- eller 3D-projektioner af lys, der viser objekter eller mennesker, der svæver i luften. Fælles for disse projektioner er, at hvis du rakte ud for at få fat i dem, ville du kun få en håndfuld luft. Sådan bliver det ikke meget længere.

    Nye teknologier (se eksempler: en , to) udvikles til at skabe hologrammer, du kan røre ved (eller i det mindste efterligne berøringsfornemmelsen, dvs. haptika). Afhængigt af den anvendte teknik, hvad enten det er ultralydsbølger eller plasmaprojektion, vil haptiske hologrammer åbne op for en helt ny industri af digitale produkter, som kan bruges i den virkelige verden.

    Tænk over det, i stedet for et fysisk tastatur, kan du have et holografisk et, der kan give dig den fysiske fornemmelse af at skrive, uanset hvor du står i et rum. Denne teknologi er, hvad der vil mainstreame Minority Report open-air interface og afslutte det traditionelle skrivebords tidsalder.

    Forestil dig dette: I stedet for at bære rundt på en voluminøs bærbar computer, kunne du en dag bære en lille firkantet oblat (måske på størrelse med et cd-hus), der ville projicere en berørbar skærm og et tastatur. Taget et skridt videre, forestil dig et kontor med kun et skrivebord og en stol, og med en simpel stemmekommando projicerer et helt kontor sig selv omkring dig - en holografisk arbejdsstation, vægdekorationer, planter osv. Køb møbler eller dekoration i fremtiden kan involvere et besøg i app store sammen med et besøg i Ikea.

    Virtual og augmented reality. I lighed med de haptiske hologrammer, der er forklaret ovenfor, vil virtual og augmented reality spille en lignende rolle i brugergrænsefladen i 2020'erne. Hver vil have deres egne artikler til at forklare dem fuldt ud, men til formålet med denne artikel er det nyttigt at vide følgende: Virtual reality vil stort set være begrænset til avanceret spil, træningssimuleringer og abstrakt datavisualisering i det næste årti.

    I mellemtiden vil augmented reality have langt bredere kommerciel appel, da det vil overlejre digital information over den virkelige verden; hvis du nogensinde har set promo-videoen til Google glas (video), så vil du forstå, hvor nyttig denne teknologi en dag kan være, når den modnes i midten af ​​2020'erne.

    Din virtuelle assistent

    Vi har dækket berørings- og bevægelsesformerne for brugergrænsefladen, der skal overtage vores fremtidige computere og elektronik. Nu er det tid til at udforske en anden form for brugergrænseflade, der måske føles endnu mere naturlig og intuitiv: tale.

    Dem, der ejer de nyeste smartphone-modeller, har højst sandsynligt allerede oplevet talegenkendelse, hvad enten det er i form af iPhones Siri, Androids Google Now eller Windows Cortana. Disse tjenester er designet til at give dig mulighed for at kommunikere med din telefon og få adgang til internettets videnbank ved blot at mundtligt fortælle disse 'virtuelle assistenter', hvad du vil have.

    Det er en fantastisk ingeniørmæssig bedrift, men den er heller ikke helt perfekt. Enhver, der har leget med disse tjenester, ved, at de ofte misfortolker din tale (især for de mennesker med tykke accenter), og de giver dig lejlighedsvis et svar, du ikke ledte efter.

    Heldigvis vil disse fejl ikke vare meget længere. Google annoncerede i maj 2015, at dens talegenkendelsesteknologi nu kun har en fejlrate på otte procent, og den er faldende. Når du kombinerer denne faldende fejlrate med de massive innovationer, der sker med mikrochips og cloud computing, kan vi forvente, at virtuelle assistenter bliver skræmmende nøjagtige i 2020.

    Se denne video for et eksempel på, hvad der er muligt, og hvad der vil blive offentligt tilgængeligt om nogle få år.

    Det kan være chokerende at indse, men de virtuelle assistenter, der i øjeblikket udvikles, vil ikke kun forstå din tale perfekt, men de vil også forstå konteksten bag de spørgsmål, du stiller; de vil genkende de indirekte signaler afgivet af dit tonefald; de vil endda deltage i lange samtaler med dig, Hendes-stil.

    Samlet set vil stemmegenkendelsesbaserede virtuelle assistenter blive den primære måde, vi får adgang til internettet på til vores daglige informationsbehov. I mellemtiden vil de fysiske former for brugergrænseflade, der blev udforsket tidligere, sandsynligvis dominere vores fritids- og arbejdsfokuserede digitale aktiviteter. Men dette er ikke slutningen på vores UI-rejse, langt fra.

    Gå ind i Matrix med Brain Computer Interface

    Lige da du troede, vi havde dækket det hele, er der endnu en form for kommunikation, der er endnu mere intuitiv og naturlig end berøring, bevægelse og tale, når det kommer til at styre maskiner: selve tanken.

    Denne videnskab er et bioelektronikfelt kaldet Brain-Computer Interface (BCI). Det involverer at bruge et implantat eller en hjernescanningsenhed til at overvåge dine hjernebølger og forbinde dem med kommandoer til at styre alt, der drives af en computer.

    Faktisk har du måske ikke indset det, men de tidlige dage med BCI er allerede begyndt. Amputerede er nu test af robotlemmer styret direkte af sindet, i stedet for gennem sensorer fastgjort til bærerens stump. Ligeledes er mennesker med svære handicap (såsom quadriplegikere) nu bruge BCI til at styre deres motoriserede kørestole og manipulere robotarme. Men at hjælpe amputerede og personer med handicap med at føre mere selvstændige liv er ikke omfanget af, hvad BCI vil være i stand til. Her er en kort liste over de eksperimenter, der nu er i gang:

    At kontrollere ting. Forskere har med succes demonstreret, hvordan BCI kan tillade brugere at kontrollere husholdningsfunktioner (belysning, gardiner, temperatur) såvel som en række andre enheder og køretøjer. Kigge på demonstrationsvideo.

    Kontrollere dyr. Et laboratorium testede med succes et BCI-eksperiment, hvor et menneske var i stand til at lave en laboratorierotte bevæger halen kun ved at bruge sine tanker.

    Hjerne-til-tekst. Hold i US , Tyskland udvikler et system, der afkoder hjernebølger (tanker) til tekst. De indledende eksperimenter har vist sig at være vellykkede, og de håber, at denne teknologi ikke kun kunne hjælpe den gennemsnitlige person, men også give mennesker med alvorlige handicap (som den kendte fysiker Stephen Hawking) muligheden for lettere at kommunikere med verden.

    Hjerne-til-hjerne. Det var et internationalt hold af videnskabsmænd i stand til efterligne telepati ved at få en person fra Indien til at tænke ordet "hej", og gennem BCI blev det ord konverteret fra hjernebølger til binær kode, derefter sendt til Frankrig, hvor den binære kode blev konverteret tilbage til hjernebølger, for at blive opfattet af den modtagende person . Hjerne-til-hjerne kommunikation, folkens!

    Optagelse af drømme og minder. Forskere ved Berkeley, Californien, har gjort utrolige fremskridt med at konvertere hjernebølger ind i billeder. Testpersoner blev præsenteret for en række billeder, mens de var forbundet til BCI-sensorer. De samme billeder blev derefter rekonstrueret på en computerskærm. De rekonstruerede billeder var superkornede, men givet omkring et årti af udviklingstid, vil dette proof of concept en dag give os mulighed for at droppe vores GoPro-kamera eller endda optage vores drømme.

    Vi kommer til at blive troldmænd, siger du?

    Det er rigtigt alle, i 2030'erne og mainstreamet i slutningen af ​​2040'erne vil mennesker begynde at kommunikere med hinanden og med dyr, styre computere og elektronik, dele minder og drømme og navigere på nettet, alt sammen ved at bruge vores sind.

    Jeg ved hvad du tænker: Ja, det eskalerede hurtigt. Men hvad betyder det hele? Hvordan vil disse UI-teknologier omforme vores fælles samfund? Nå, jeg gætter på, at du bare skal læse den sidste del af vores Future of Computers-serie for at finde ud af det.

    FUTURE OF COMPUTERS SERIES LINKS

    Moores Laws langsomme appetit på bits, bytes og alen: Computernes fremtid P1

    Digital Storage Revolution: The Future of Computers P2

    Society and the Hybrid Generation: The Future of Computers P4

    Næste planlagte opdatering af denne prognose

    2023-01-26

    Forecast referencer

    Følgende populære og institutionelle links blev refereret til denne prognose:

    Følgende Quantumrun-links blev refereret til denne prognose: