Sig farvel til din mus og tastatur, nye brugergrænseflader til at omdefinere menneskeheden: Fremtiden for computere P1

BILLEDKREDIT: Quantumrun

Sig farvel til din mus og tastatur, nye brugergrænseflader til at omdefinere menneskeheden: Fremtiden for computere P1

    Først var det hulkort; så var det den ikoniske mus og tastatur. De værktøjer og systemer, vi bruger til at interagere med computere, er det, der giver os mulighed for at kontrollere og bygge verden omkring os på måder, som vores forfædre ikke kan forestille sig. Vi er nået langt for at være sikre, men når det kommer til feltet brugergrænseflade (UI, midlerne, hvormed vi interagerer med computersystemer), har vi ikke set noget endnu.

    Nogle vil måske sige, at det er mærkeligt at starte vores Future of Computers-serie med et kapitel om brugergrænseflade, men det er, hvordan vi bruger computere, der vil give mening til de innovationer, vi udforsker i resten af ​​denne serie.

    Hver gang menneskeheden opfandt en ny form for kommunikation – det være sig tale, det skrevne ord, trykpressen, telefonen, internettet – blomstrede vores kollektive samfund op med nye ideer, nye former for fællesskab og helt nye industrier. Det kommende årti vil se den næste evolution, det næste kvantespring i kommunikation og sammenkobling, fuldstændig formidlet af en række fremtidige computergrænseflader ... og det kan bare omforme, hvad det vil sige at være menneske.

    Hvad er 'god' brugergrænseflade, overhovedet?

    Tiden med at stikke, knibe og stryge på computere for at få dem til at gøre, hvad vi ville, begyndte for over et årti siden. For mange startede det med iPod'en. Hvor vi engang var vant til at klikke, skrive og trykke ned mod robuste knapper for at kommunikere vores vilje til maskiner, populariserede iPod konceptet med at stryge til venstre eller højre på en cirkel for at vælge den musik, du ville lytte til.

    Touchscreen-smartphones kom ind på markedet kort efter det, og introducerede en række andre taktile kommandoprompter som poke (for at simulere tryk på en knap), pinch (for at zoome ind og ud), tryk, hold og træk. Disse taktile kommandoer vandt hurtigt indpas blandt offentligheden af ​​en række årsager: De var nye. Alle de seje (berømte) børn gjorde det. Touchscreen-teknologi blev billig og mainstream. Men mest af alt føltes bevægelserne intuitive, naturlige.

    Det er, hvad god computerbrugergrænseflade handler om: Opbygning af mere naturlige måder at interagere med software og enheder på. Og det er kerneprincippet, der vil guide de fremtidige UI-enheder, du er ved at lære om.

    Prikker, kniber og stryger i luften

    Fra 2018 har smartphones erstattet standard mobiltelefoner i store dele af den udviklede verden. Det betyder, at en stor del af verden nu er bekendt med de forskellige taktile kommandoer nævnt ovenfor. Gennem apps og spil har smartphonebrugere lært en lang række abstrakte færdigheder til at styre de relative supercomputere, der sidder i deres lommer. 

    Det er disse færdigheder, der vil forberede forbrugerne til den næste bølge af enheder – enheder, der vil give os mulighed for lettere at fusionere den digitale verden med vores virkelige miljøer. Så lad os tage et kig på nogle af de værktøjer, vi vil bruge til at navigere i vores fremtidige verden.

    Udendørs gestuskontrol. Fra 2018 er vi stadig i mikroalderen for berøringskontrol. Vi stikker, kniber og swiper os stadig gennem vores mobile liv. Men den berøringskontrol er langsomt ved at vige pladsen til en form for friluftsbevægelseskontrol. For spillerne derude kan din første interaktion med dette have været at spille overaktive Nintendo Wii-spil eller Xbox Kinect-spillene – begge konsoller bruger avanceret motion-capture-teknologi til at matche spillerbevægelser med spilavatarer. 

    Nå, denne teknologi forbliver ikke begrænset til videospil og greenscreen-filmproduktion, den vil snart komme ind på det bredere forbrugerelektronikmarked. Et slående eksempel på, hvordan dette kan se ud, er et Google-projekt ved navn Project Soli (se dens fantastiske og korte demovideo link.). Udviklere af dette projekt bruger miniatureradar til at spore de fine bevægelser af din hånd og fingre for at simulere at stikke, klemme og stryge i det fri i stedet for mod en skærm. Dette er den slags teknologi, der vil hjælpe med at gøre wearables nemmere at bruge og dermed mere attraktive for et bredere publikum.

    Tredimensionel grænseflade. Tager vi denne udendørs gestuskontrol videre langs dens naturlige progression, i midten af ​​2020'erne, kan vi se den traditionelle desktop-grænseflade - det troværdige tastatur og mus - langsomt erstattet af gestus-grænsefladen, i samme stil, som blev populært af filmen Minority Rapport. Faktisk arbejder John Underkoffler, UI-forsker, videnskabsrådgiver og opfinder af de holografiske gestus-grænsefladescener fra Minority Report, i øjeblikket på den virkelige version-en teknologi, han omtaler som et rumligt driftsmiljø mellem menneske og maskine. (Han skal nok finde på et praktisk akronym for det.)

    Ved at bruge denne teknologi vil du en dag sidde eller stå foran et stort display og bruge forskellige håndbevægelser til at styre din computer. Det ser rigtig fedt ud (se linket ovenfor), men som du måske kan gætte, kan håndbevægelser være gode til at springe tv-kanaler over, pege/klikke på links eller designe tredimensionelle modeller, men de vil ikke fungere så godt, når du skriver langt essays. Det er derfor, efterhånden som friluftsbevægelsesteknologi gradvist inkluderes i mere og mere forbrugerelektronik, vil den sandsynligvis blive ledsaget af komplementære brugergrænsefladefunktioner som avanceret stemmekommando og irissporingsteknologi. 

    Ja, det ydmyge, fysiske tastatur kan stadig overleve ind i 2020'erne.

    Haptiske hologrammer. De hologrammer, vi alle har set personligt eller i filmene, har tendens til at være 2D- eller 3D-projektioner af lys, der viser objekter eller mennesker, der svæver i luften. Fælles for disse projektioner er, at hvis du rakte ud for at få fat i dem, ville du kun få en håndfuld luft. Det vil ikke være tilfældet i midten af ​​2020'erne.

    Nye teknologier (se eksempler: en , to) udvikles til at skabe hologrammer, du kan røre ved (eller i det mindste efterligne berøringsfornemmelsen, dvs. haptika). Afhængigt af den anvendte teknik, hvad enten det er ultralydsbølger eller plasmaprojektion, vil haptiske hologrammer åbne op for en helt ny industri af digitale produkter, som vi kan bruge i den virkelige verden.

    Tænk over det, i stedet for et fysisk tastatur, kan du have et holografisk et, der kan give dig den fysiske fornemmelse af at skrive, uanset hvor du står i et rum. Denne teknologi er, hvad der vil mainstreame Minority Report open-air interface og muligvis afslutte det traditionelle skrivebords tidsalder.

    Forestil dig dette: I stedet for at bære rundt på en voluminøs bærbar computer, kunne du en dag bære en lille firkantet skive (måske på størrelse med en tynd ekstern harddisk), der ville projicere en berørbar skærm og et tastaturhologram. Taget et skridt videre, forestil dig et kontor med kun et skrivebord og en stol, og med en simpel stemmekommando projicerer et helt kontor sig selv omkring dig - en holografisk arbejdsstation, vægdekorationer, planter osv. Køb møbler eller dekoration i fremtiden kan involvere et besøg i app store sammen med et besøg i Ikea.

    Taler med din virtuelle assistent

    Mens vi langsomt genskaber berøringsbrugergrænsefladen, dukker der en ny og komplementær form for brugergrænseflade op, som kan føles endnu mere intuitiv for den gennemsnitlige person: tale.

    Amazon fik et kulturelt sprøjt med udgivelsen af ​​dets kunstigt intelligente (AI) personlige assistentsystem, Alexa, og de forskellige stemmeaktiverede hjemmeassistentprodukter, som det udgav ved siden af. Google, den formodede leder inden for kunstig intelligens, skyndte sig at følge trop med sin egen suite af hjemmeassistentprodukter. Og tilsammen har den kombinerede multimilliardkonkurrence mellem disse to teknologigiganter ført til en hurtig, udbredt accept af stemmeaktiverede AI-produkter og -assistenter blandt det generelle forbrugermarked. Og selvom det stadig er tidlige dage for denne teknologi, skal denne tidlige vækstspurt ikke undervurderes.

    Uanset om du foretrækker Amazons Alexa, Googles assistent, iPhones Siri eller Windows Cortana, er disse tjenester designet til at give dig mulighed for at kommunikere med din telefon eller smartenhed og få adgang til nettets videnbank med enkle verbale kommandoer, der fortæller disse 'virtuelle assistenter', hvad du vil have.

    Det er en fantastisk ingeniørmæssig bedrift. Og selvom det ikke er helt perfekt, forbedres teknologien hurtigt; for eksempel Google annoncerede i maj 2015, at dens talegenkendelsesteknologi nu kun har en fejlrate på otte procent, og den krymper. Når du kombinerer denne faldende fejlrate med de massive innovationer, der sker med mikrochips og cloud computing (skisseret i de kommende kapitler i serien), kan vi forvente, at virtuelle assistenter bliver behageligt nøjagtige i 2020.

    Endnu bedre, de virtuelle assistenter, der i øjeblikket bliver udviklet, vil ikke kun forstå din tale perfekt, men de vil også forstå konteksten bag de spørgsmål, du stiller; de vil genkende de indirekte signaler afgivet af dit tonefald; de vil endda deltage i langvarige samtaler med dig, Hendes-stil.

    Samlet set vil stemmegenkendelsesbaserede virtuelle assistenter blive den primære måde, vi får adgang til internettet på til vores daglige informationsbehov. I mellemtiden vil de fysiske former for brugergrænseflade, der blev udforsket tidligere, sandsynligvis dominere vores fritids- og arbejdsfokuserede digitale aktiviteter. Men dette er ikke slutningen på vores UI-rejse, langt fra.

    wearables

    Vi kan ikke diskutere UI uden også at nævne wearables – enheder, du har på eller endda indsætter i din krop for at hjælpe dig med at interagere digitalt med verden omkring dig. Ligesom stemmeassistenter vil disse enheder spille en understøttende rolle i, hvordan vi engagerer os i det digitale rum; vi bruger dem til specifikke formål i specifikke sammenhænge. Men siden vi skrev en hele kapitlet om wearables i vores Internettets fremtid serie, vil vi ikke gå i detaljer her.

    Forstærker vores virkelighed

    Fremadrettet, integration af alle de teknologier, der er nævnt ovenfor, er virtual reality og augmented reality.

    På et grundlæggende niveau er augmented reality (AR) brugen af ​​teknologi til digitalt at ændre eller forbedre din opfattelse af den virkelige verden (tænk på Snapchat-filtre). Dette må ikke forveksles med virtual reality (VR), hvor den virkelige verden er erstattet af en simuleret verden. Med AR vil vi se verden omkring os gennem forskellige filtre og lag, der er rige med kontekstuel information, der vil hjælpe os med bedre at navigere i vores verden i realtid og (formentlig) berige vores virkelighed. Lad os kort udforske begge yderpunkter, begyndende med VR.

    Virtual reality. På et grundlæggende niveau er virtual reality (VR) brugen af ​​teknologi til digitalt at skabe en fordybende og overbevisende audiovisuel illusion af virkeligheden. Og i modsætning til AR, som i øjeblikket (2018) lider af en lang række teknologiske og sociale forhindringer, før den opnår accept på massemarkedet, har VR eksisteret i årtier i populærkulturen. Vi har set det i en lang række fremtidsorienterede film og tv-shows. Mange af os har endda prøvet primitive versioner af VR på gamle arkader og teknologiorienterede konferencer og messer.

    Hvad der er anderledes denne gang er, at nutidens VR-teknologi er mere tilgængelig end nogensinde. Takket være miniaturiseringen af ​​forskellige nøgleteknologier (oprindeligt brugt til at lave smartphones) er prisen på VR-headset steget til et punkt, hvor kraftfulde virksomheder som Facebook, Sony og Google nu årligt udgiver VR-headsets til en overkommelig pris til masserne.

    Dette repræsenterer starten på et helt nyt massemarkedsmedium, som gradvist vil tiltrække tusindvis af software- og hardwareudviklere. Faktisk vil VR-apps og -spil i slutningen af ​​2020'erne generere flere downloads end traditionelle mobilapps.

    Uddannelse, beskæftigelsestræning, forretningsmøder, virtuel turisme, spil og underholdning – disse er blot nogle få af de mange applikationer, som billige, brugervenlige og realistiske VR kan og vil forbedre (hvis ikke helt forstyrre). Men i modsætning til hvad vi har set i sci-fi-romaner og -film, er fremtiden, hvor folk tilbringer hele dagen i VR-verdener, årtier væk. Når det er sagt, så vil vi bruge hele dagen på at bruge AR.

    Augmented reality. Som tidligere nævnt er målet med AR at fungere som et digitalt filter oven på din opfattelse af den virkelige verden. Når du ser på dine omgivelser, kan AR forbedre eller ændre din opfattelse af dit miljø eller give nyttige og kontekstuelt relevante oplysninger, der kan hjælpe dig til bedre at forstå dit miljø. For at give dig en bedre fornemmelse af, hvordan dette kan se ud, kan du se videoerne nedenfor:

    Den første video er fra den nye leder i AR, Magic Leap:

     

    Dernæst er en kort film (6 min) fra Keiichi Matsuda om, hvordan AR kan se ud i 2030'erne:

     

    Fra videoerne ovenfor kan du forestille dig det næsten ubegrænsede antal applikationer AR-teknologi en dag vil muliggøre, og det er af den grund, at de fleste af teknologiens største spillere—Google, Apple, Facebook, microsoft, Baidu, Intel, og flere – investerer allerede kraftigt i AR-forskning.

    Med udgangspunkt i de holografiske og udendørs gestus-grænseflader beskrevet tidligere, vil AR i sidste ende gøre op med de fleste af de traditionelle computergrænseflader, som forbrugere hidtil er vokset op med. Hvorfor for eksempel eje en stationær eller bærbar computer, når du kan tage et par AR-briller på og se en virtuel stationær eller bærbar computer dukke op lige foran dig. Ligeledes dine AR-briller (og senere AR kontaktlinser) vil gøre op med din fysiske smartphone. Åh, og lad os ikke glemme dine tv'er. Det meste af nutidens store elektronik vil med andre ord blive digitaliseret i form af en app.

    De virksomheder, der investerer tidligt for at kontrollere fremtidige AR-operativsystemer eller digitale miljøer, vil effektivt forstyrre og overtage kontrollen over en stor procentdel af dagens elektroniksektor. På siden vil AR også have en række forretningsapplikationer inden for sektorer som sundhedspleje, design/arkitektur, logistik, fremstilling, militær og mere, applikationer vi diskuterer yderligere i vores Future of the Internet-serie.

    Og alligevel er det stadig ikke her fremtiden for UI slutter.

    Gå ind i Matrix med Brain-Computer Interface

    Der er endnu en anden form for kommunikation, der er endnu mere intuitiv og naturlig end bevægelse, tale og AR, når det kommer til at styre maskiner: selve tanken.

    Denne videnskab er et bioelektronikfelt kaldet Brain-Computer Interface (BCI). Det involverer at bruge en hjernescanningsenhed eller et implantat til at overvåge dine hjernebølger og forbinde dem med kommandoer til at styre alt, der drives af en computer.

    Faktisk har du måske ikke indset det, men de tidlige dage med BCI er allerede begyndt. Amputerede er nu test af robotlemmer styret direkte af sindet, i stedet for gennem sensorer fastgjort til bærerens stump. Ligeledes er mennesker med svære handicap (såsom personer med quadriplegi) nu bruge BCI til at styre deres motoriserede kørestole og manipulere robotarme. Men at hjælpe amputerede og personer med handicap med at føre mere selvstændige liv er ikke omfanget af, hvad BCI vil være i stand til. Her er en kort liste over de eksperimenter, der nu er i gang:

    At kontrollere ting. Forskere har med succes demonstreret, hvordan BCI kan tillade brugere at kontrollere husholdningsfunktioner (belysning, gardiner, temperatur) såvel som en række andre enheder og køretøjer. Kigge på demonstrationsvideoen.

    Kontrollere dyr. Et laboratorium testede med succes et BCI-eksperiment, hvor et menneske var i stand til at lave en laboratorierotte bevæger halen kun ved at bruge sine tanker.

    Hjerne-til-tekst. En lammet mand brugt et hjerneimplantat at skrive otte ord i minuttet. I mellemtiden er hold i US , Tyskland udvikler et system, der afkoder hjernebølger (tanker) til tekst. Indledende eksperimenter har vist sig at være vellykkede, og de håber, at denne teknologi ikke kun kunne hjælpe den gennemsnitlige person, men også give mennesker med alvorlige handicap (som den berømte fysiker Stephen Hawking) muligheden for lettere at kommunikere med verden.

    Hjerne-til-hjerne. Det var et internationalt hold af videnskabsmænd i stand til efterligne telepati ved at få en person fra Indien til at tænke ordet "hej", og gennem BCI blev det ord konverteret fra hjernebølger til binær kode, derefter sendt til Frankrig, hvor den binære kode blev konverteret tilbage til hjernebølger, for at blive opfattet af den modtagende person . Hjerne-til-hjerne kommunikation, folkens!

    Optagelse af drømme og minder. Forskere ved Berkeley, Californien, har gjort utrolige fremskridt med at konvertere hjernebølger til billeder. Testpersoner blev præsenteret for en række billeder, mens de var forbundet til BCI-sensorer. De samme billeder blev derefter rekonstrueret på en computerskærm. De rekonstruerede billeder var superkornede, men givet omkring et årti af udviklingstid vil dette proof of concept en dag give os mulighed for at droppe vores GoPro-kamera eller endda optage vores drømme.

    Vi bliver troldmænd, siger du?

    Til at begynde med vil vi bruge eksterne enheder til BCI, der ligner en hjelm eller hårbånd (2030'erne), der i sidste ende vil give plads til hjerneimplantater (slutningen af ​​2040'erne). I sidste ende vil disse BCI-enheder forbinde vores sind med den digitale sky og senere fungere som en tredje halvkugle i vores sind - så mens vores venstre og højre hjernehalvdel styrer vores kreativitet og logiske evner, vil denne nye, skyforsynede digitale halvkugle lette evner hvor mennesker ofte kommer til kort i forhold til deres AI-modstykker, nemlig hastighed, gentagelse og nøjagtighed.

    BCI er nøglen til det nye område inden for neuroteknologi, der har til formål at fusionere vores sind med maskiner for at opnå styrkerne fra begge verdener. Det er rigtigt alle, i 2030'erne og mainstreamet i slutningen af ​​2040'erne vil mennesker bruge BCI til at opgradere vores hjerner samt kommunikere med hinanden og med dyr, styre computere og elektronik, dele minder og drømme og navigere på nettet.

    Jeg ved hvad du tænker: Ja, det eskalerede hurtigt.

    Men lige så spændende som alle disse UI-fremskridt er, vil de aldrig være mulige uden lige så spændende fremskridt inden for computersoftware og hardware. Disse gennembrud er, hvad resten af ​​denne Future of Computers-serie vil udforske.

    Future of Computers-serien

    Fremtiden for softwareudvikling: Fremtiden for computere P2

    Den digitale lagringsrevolution: Future of Computers P3

    En falmende Moores lov til at sætte gang i grundlæggende gentænkning af mikrochips: Future of Computers P4

    Cloud computing bliver decentraliseret: Future of Computers P5

    Hvorfor konkurrerer lande om at bygge de største supercomputere? Computernes fremtid P6

    Hvordan Quantum-computere vil ændre verden: Future of Computers P7     

    Næste planlagte opdatering af denne prognose

    2023-02-08

    Forecast referencer

    Følgende populære og institutionelle links blev refereret til denne prognose:

    Følgende Quantumrun-links blev refereret til denne prognose: