Verabschieden Sie sich von Ihrer Maus und Tastatur, neuen Benutzeroberflächen, um die Menschheit neu zu definieren: Die Zukunft der Computer P1

IMAGE CREDIT: Quantenlauf

Verabschieden Sie sich von Ihrer Maus und Tastatur, neuen Benutzeroberflächen, um die Menschheit neu zu definieren: Die Zukunft der Computer P1

    Zuerst waren es Lochkarten; dann war es die ikonische Maus und Tastatur. Die Werkzeuge und Systeme, die wir verwenden, um mit Computern zu interagieren, ermöglichen es uns, die Welt um uns herum auf eine Weise zu kontrollieren und zu gestalten, die für unsere Vorfahren unvorstellbar war. Wir haben sicher einen langen Weg zurückgelegt, aber im Bereich der Benutzerschnittstelle (UI, die Mittel, mit denen wir mit Computersystemen interagieren) haben wir noch nichts gesehen.

    Einige mögen sagen, dass es seltsam ist, unsere Reihe „Future of Computers“ mit einem Kapitel über UI zu beginnen, aber es ist die Art und Weise, wie wir Computer verwenden, die den Innovationen, die wir im Rest dieser Reihe untersuchen, Bedeutung verleihen wird.

    Jedes Mal, wenn die Menschheit eine neue Form der Kommunikation erfand – sei es Sprache, das geschriebene Wort, die Druckerpresse, das Telefon, das Internet – blühte unsere kollektive Gesellschaft mit neuen Ideen, neuen Formen der Gemeinschaft und völlig neuen Industrien auf. Das kommende Jahrzehnt wird die nächste Evolution erleben, den nächsten Quantensprung in Kommunikation und Interkonnektivität, der vollständig durch eine Reihe zukünftiger Computerschnittstellen vermittelt wird … und er könnte das, was es bedeutet, ein Mensch zu sein, neu gestalten.

    Was ist überhaupt eine „gute“ Benutzeroberfläche?

    Die Ära des Herumstocherns, Kneifens und Wischens an Computern, um sie dazu zu bringen, das zu tun, was wir wollten, begann vor über einem Jahrzehnt. Für viele fing es mit dem iPod an. Wo wir einst daran gewöhnt waren, Maschinen zu klicken, zu tippen und gegen stabile Knöpfe zu drücken, um unseren Willen mitzuteilen, hat der iPod das Konzept populär gemacht, auf einem Kreis nach links oder rechts zu wischen, um die Musik auszuwählen, die Sie hören möchten.

    Touchscreen-Smartphones kamen kurz darauf auf den Markt und führten eine Reihe anderer taktiler Eingabeaufforderungen ein, wie z. Diese taktilen Befehle fanden aus mehreren Gründen schnell Anklang in der Öffentlichkeit: Sie waren neu. All die coolen (berühmten) Kids machten es. Die Touchscreen-Technologie wurde billig und zum Mainstream. Aber vor allem fühlten sich die Bewegungen intuitiv und natürlich an.

    Das ist es, worum es bei einer guten Computer-UI geht: um natürlichere Methoden zur Interaktion mit Software und Geräten zu entwickeln. Und das ist das Kernprinzip, das die zukünftigen UI-Geräte leiten wird, die Sie gleich kennenlernen werden.

    Stoßen, kneifen und in die Luft wischen

    Ab 2018 haben Smartphones Standard-Mobiltelefone in weiten Teilen der entwickelten Welt ersetzt. Dies bedeutet, dass ein großer Teil der Welt jetzt mit den verschiedenen oben erwähnten taktilen Befehlen vertraut ist. Durch Apps und Spiele haben Smartphone-Benutzer eine Vielzahl abstrakter Fähigkeiten erlernt, um die relativen Supercomputer zu steuern, die in ihren Taschen sitzen. 

    Es sind diese Fähigkeiten, die Verbraucher auf die nächste Welle von Geräten vorbereiten werden – Geräte, die es uns ermöglichen werden, die digitale Welt leichter mit unseren realen Umgebungen zu verschmelzen. Werfen wir also einen Blick auf einige der Werkzeuge, die wir verwenden werden, um durch unsere zukünftige Welt zu navigieren.

    Open-Air-Gestensteuerung. Ab 2018 befinden wir uns immer noch im Mikrozeitalter der Touch-Steuerung. Wir stupsen, kneifen und wischen uns immer noch durch unser mobiles Leben. Aber diese Berührungssteuerung weicht langsam einer Form der Open-Air-Gestensteuerung. Für die Gamer da draußen war Ihre erste Interaktion damit möglicherweise das Spielen überaktiver Nintendo Wii-Spiele oder der Xbox Kinect-Spiele – beide Konsolen verwenden fortschrittliche Motion-Capture-Technologie, um Spielerbewegungen mit Spiel-Avataren abzugleichen. 

    Nun, diese Technologie bleibt nicht auf Videospiele und Green-Screen-Filme beschränkt, sie wird bald in den breiteren Markt für Unterhaltungselektronik eintreten. Ein markantes Beispiel dafür, wie dies aussehen könnte, ist ein Google-Projekt namens Project Soli (sehen Sie sich das erstaunliche und kurze Demo-Video an hier). Die Entwickler dieses Projekts verwenden ein Miniaturradar, um die feinen Bewegungen Ihrer Hand und Finger zu verfolgen, um das Stoßen, Kneifen und Wischen unter freiem Himmel statt gegen einen Bildschirm zu simulieren. Dies ist die Art von Technologie, die dazu beitragen wird, Wearables einfacher zu bedienen und damit für ein breiteres Publikum attraktiver zu machen.

    Dreidimensionale Schnittstelle. Wenn wir diese Open-Air-Gestensteuerung in ihrer natürlichen Entwicklung fortsetzen, werden wir Mitte der 2020er Jahre sehen, wie die traditionelle Desktop-Oberfläche – die bewährte Tastatur und Maus – langsam durch die Gesten-Oberfläche ersetzt wird, im gleichen Stil, der durch den Film Minority populär gemacht wurde Bericht. Tatsächlich arbeitet John Underkoffler, UI-Forscher, wissenschaftlicher Berater und Erfinder der holografischen Gesten-Interface-Szenen aus Minority Report, derzeit an der reale Version– eine Technologie, die er als räumliche Arbeitsumgebung für Mensch-Maschine-Schnittstellen bezeichnet. (Wahrscheinlich muss er sich dafür ein praktisches Akronym einfallen lassen.)

    Mit dieser Technologie werden Sie eines Tages vor einem großen Display sitzen oder stehen und verschiedene Handgesten verwenden, um Ihren Computer zu steuern. Es sieht wirklich cool aus (siehe Link oben), aber wie Sie sich vorstellen können, sind Handgesten vielleicht großartig, um Fernsehkanäle zu überspringen, auf Links zu zeigen/klicken oder dreidimensionale Modelle zu entwerfen, aber sie funktionieren nicht so gut, wenn Sie lange schreiben Aufsätze. Da die Open-Air-Gestentechnologie nach und nach in immer mehr Unterhaltungselektronik integriert wird, wird sie wahrscheinlich durch ergänzende UI-Funktionen wie fortschrittliche Sprachsteuerung und Iris-Tracking-Technologie ergänzt. 

    Ja, die bescheidene, physische Tastatur könnte noch bis in die 2020er Jahre überleben.

    Haptische Hologramme. Die Hologramme, die wir alle persönlich oder in Filmen gesehen haben, sind in der Regel 2D- oder 3D-Lichtprojektionen, die Objekte oder Personen zeigen, die in der Luft schweben. Allen diesen Vorsprüngen ist gemeinsam, dass Sie nur eine Handvoll Luft bekommen würden, wenn Sie nach ihnen greifen würden. Das wird Mitte der 2020er Jahre nicht mehr der Fall sein.

    Neue Technologien (siehe Beispiele: dank One und XNUMX) werden entwickelt, um Hologramme zu erstellen, die Sie berühren können (oder zumindest das Gefühl von Berührung, dh Haptik, nachahmen). Abhängig von der verwendeten Technik, seien es Ultraschallwellen oder Plasmaprojektion, werden haptische Hologramme eine völlig neue Industrie digitaler Produkte eröffnen, die wir in der realen Welt verwenden können.

    Denken Sie darüber nach, anstelle einer physischen Tastatur können Sie eine holografische Tastatur haben, die Ihnen das physische Gefühl des Tippens vermittelt, wo immer Sie in einem Raum stehen. Diese Technologie wird den Mainstream vorantreiben Minority Report Open-Air-Schnittstelle und möglicherweise das Zeitalter des traditionellen Desktops beenden.

    Stellen Sie sich Folgendes vor: Anstatt einen sperrigen Laptop mit sich herumzutragen, könnten Sie eines Tages einen kleinen quadratischen Wafer (vielleicht so groß wie eine dünne externe Festplatte) mit sich führen, der einen berührbaren Bildschirm und ein Tastatur-Hologramm projizieren würde. Noch einen Schritt weiter, stellen Sie sich ein Büro mit nur einem Schreibtisch und einem Stuhl vor, dann projiziert sich mit einem einfachen Sprachbefehl ein ganzes Büro um Sie herum – ein holografischer Arbeitsplatz, Wanddekorationen, Pflanzen usw. Kaufen Sie in Zukunft Möbel oder Dekoration kann einen Besuch im App Store zusammen mit einem Besuch bei Ikea beinhalten.

    Sprechen Sie mit Ihrem virtuellen Assistenten

    Während wir die Touch-Benutzeroberfläche langsam neu erfinden, entsteht eine neue und ergänzende Form der Benutzeroberfläche, die sich für den Durchschnittsmenschen möglicherweise noch intuitiver anfühlt: Sprache.

    Amazon sorgte mit der Veröffentlichung seines künstlich intelligenten (KI) persönlichen Assistenzsystems Alexa und der verschiedenen sprachaktivierten Heimassistentenprodukte, die es daneben herausbrachte, für kulturelle Furore. Google, der vermeintliche Marktführer im Bereich KI, beeilte sich, mit seiner eigenen Suite von Home-Assistant-Produkten nachzuziehen. Und zusammengenommen hat der kombinierte milliardenschwere Wettbewerb zwischen diesen beiden Technologiegiganten zu einer schnellen und weit verbreiteten Akzeptanz von sprachaktivierten KI-Produkten und Assistenten auf dem allgemeinen Verbrauchermarkt geführt. Und obwohl diese Technologie noch in den Kinderschuhen steckt, sollte dieser frühe Wachstumsschub nicht unterschätzt werden.

    Egal, ob Sie Amazons Alexa, Googles Assistent, iPhones Siri oder Windows Cortana bevorzugen, diese Dienste sind so konzipiert, dass Sie mit Ihrem Telefon oder Smartgerät kommunizieren und mit einfachen Sprachbefehlen auf die Wissensdatenbank des Internets zugreifen können, indem Sie diesen „virtuellen Assistenten“ sagen, was Sie wollen.

    Es ist eine erstaunliche Meisterleistung der Ingenieurskunst. Und auch wenn es nicht ganz perfekt ist, verbessert sich die Technologie schnell; zum Beispiel Google angekündigt im Mai 2015, dass seine Spracherkennungstechnologie nur noch eine achtprozentige Fehlerquote hat, Tendenz steigend. Wenn Sie diese sinkende Fehlerquote mit den massiven Innovationen bei Mikrochips und Cloud-Computing kombinieren (die in den kommenden Kapiteln der Serie beschrieben werden), können wir davon ausgehen, dass virtuelle Assistenten bis 2020 angenehm genau werden.

    Noch besser, die derzeit in Entwicklung befindlichen virtuellen Assistenten werden nicht nur Ihre Rede perfekt verstehen, sondern auch den Kontext hinter den von Ihnen gestellten Fragen verstehen; sie werden die indirekten Signale Ihres Tonfalls erkennen; sie werden sogar lange Gespräche mit Ihnen führen, Die von ihr verfassten Bücher-Stil.

    Insgesamt werden spracherkennungsbasierte virtuelle Assistenten die primäre Art und Weise sein, wie wir für unsere täglichen Informationsbedürfnisse auf das Internet zugreifen. In der Zwischenzeit werden die zuvor untersuchten physischen Formen der Benutzeroberfläche wahrscheinlich unsere freizeit- und arbeitsorientierten digitalen Aktivitäten dominieren. Aber das ist noch lange nicht das Ende unserer UI-Reise.

    Wearables

    Wir können UI nicht diskutieren, ohne auch Wearables zu erwähnen – Geräte, die Sie tragen oder sogar in Ihren Körper einführen, um Ihnen zu helfen, digital mit der Welt um Sie herum zu interagieren. Wie Sprachassistenten werden diese Geräte eine unterstützende Rolle dabei spielen, wie wir uns mit dem digitalen Raum auseinandersetzen; Wir verwenden sie für bestimmte Zwecke in bestimmten Kontexten. Da wir jedoch eine geschrieben haben ganzes Kapitel über Wearables in unserer Zukunft des Internets Serien, wir gehen hier nicht weiter ins Detail.

    Erweiterung unserer Realität

    In Zukunft sind die Integration aller oben genannten Technologien Virtual Reality und Augmented Reality.

    Auf einer grundlegenden Ebene ist Augmented Reality (AR) der Einsatz von Technologie, um Ihre Wahrnehmung der realen Welt digital zu verändern oder zu verbessern (denken Sie an Snapchat-Filter). Dies ist nicht zu verwechseln mit Virtual Reality (VR), bei der die reale Welt durch eine simulierte Welt ersetzt wird. Mit AR sehen wir die Welt um uns herum durch verschiedene Filter und Schichten, die reich an kontextbezogenen Informationen sind, die uns helfen, unsere Welt in Echtzeit besser zu navigieren und (wohl) unsere Realität zu bereichern. Lassen Sie uns kurz beide Extreme untersuchen, beginnend mit VR.

    Virtuelle Realität. Auf einer grundlegenden Ebene ist Virtual Reality (VR) der Einsatz von Technologie, um digital eine immersive und überzeugende audiovisuelle Illusion der Realität zu erzeugen. Und im Gegensatz zu AR, das derzeit (2018) unter einer Vielzahl von technologischen und sozialen Hürden leidet, bevor es sich auf dem Massenmarkt durchsetzt, ist VR seit Jahrzehnten in der Populärkultur vertreten. Wir haben es in einer Vielzahl von zukunftsorientierten Filmen und Fernsehsendungen gesehen. Viele von uns haben sogar primitive Versionen von VR in alten Spielhallen und technikorientierten Konferenzen und Messen ausprobiert.

    Was diesmal anders ist, ist, dass die heutige VR-Technologie zugänglicher denn je ist. Dank der Miniaturisierung verschiedener Schlüsseltechnologien (ursprünglich zur Herstellung von Smartphones verwendet) sind die Kosten für VR-Headsets so stark gestiegen, dass mächtige Unternehmen wie Facebook, Sony und Google nun jährlich erschwingliche VR-Headsets für die breite Masse herausbringen.

    Dies stellt den Beginn eines völlig neuen Massenmarktmediums dar, das nach und nach Tausende von Software- und Hardwareentwicklern anziehen wird. Tatsächlich werden VR-Apps und -Spiele Ende der 2020er Jahre mehr Downloads generieren als herkömmliche mobile Apps.

    Bildung, Beschäftigungstraining, Geschäftstreffen, virtueller Tourismus, Spiele und Unterhaltung – dies sind nur einige der vielen Anwendungen, die billige, benutzerfreundliche und realistische VR verbessern (wenn nicht sogar völlig stören) können und werden. Im Gegensatz zu dem, was wir in Science-Fiction-Romanen und -Filmen gesehen haben, ist die Zukunft, in der Menschen den ganzen Tag in VR-Welten verbringen, Jahrzehnte entfernt. Das heißt, was wir den ganzen Tag damit verbringen werden, ist AR.

    Erweiterte Realität. Wie bereits erwähnt, besteht das Ziel von AR darin, als digitaler Filter zusätzlich zu Ihrer Wahrnehmung der realen Welt zu fungieren. Beim Betrachten Ihrer Umgebung kann AR Ihre Wahrnehmung Ihrer Umgebung verbessern oder verändern oder nützliche und kontextrelevante Informationen liefern, die Ihnen helfen können, Ihre Umgebung besser zu verstehen. Um Ihnen ein besseres Gefühl dafür zu geben, wie dies aussehen könnte, sehen Sie sich die folgenden Videos an:

    Das erste Video stammt vom aufstrebenden Marktführer für AR, Magic Leap:

     

    Als nächstes sehen Sie einen kurzen Film (6 Minuten) von Keiichi Matsuda darüber, wie AR in den 2030er Jahren aussehen könnte:

     

    Aus den obigen Videos können Sie sich die nahezu unbegrenzte Anzahl von Anwendungen vorstellen, die AR-Technologie eines Tages ermöglichen wird, und aus diesem Grund sind die meisten der größten Akteure der Technologie –Google, Apple, Facebook, Microsoft, Baidu, Intel, und mehr – investieren bereits stark in die AR-Forschung.

    Aufbauend auf den zuvor beschriebenen holografischen und Open-Air-Gestenschnittstellen wird AR schließlich die meisten traditionellen Computerschnittstellen beseitigen, mit denen die Verbraucher bisher aufgewachsen sind. Warum zum Beispiel einen Desktop- oder Laptop-Computer besitzen, wenn Sie eine AR-Brille aufsetzen und einen virtuellen Desktop oder Laptop direkt vor sich sehen können. Ebenso Ihre AR-Brille (und später AR-Kontaktlinsen) wird Ihr physisches Smartphone überflüssig machen. Oh, und vergessen wir nicht Ihre Fernseher. Mit anderen Worten, der größte Teil der heutigen großen Elektronik wird in Form einer App digitalisiert.

    Die Unternehmen, die früh investieren, um die zukünftigen AR-Betriebssysteme oder digitalen Umgebungen zu kontrollieren, werden einen großen Prozentsatz des heutigen Elektroniksektors effektiv stören und die Kontrolle übernehmen. Daneben wird AR auch eine Reihe von Geschäftsanwendungen in Sektoren wie Gesundheitswesen, Design/Architektur, Logistik, Fertigung, Militär und mehr haben, Anwendungen, die wir in unserer Reihe „Die Zukunft des Internets“ weiter besprechen.

    Und doch endet die Zukunft der Benutzeroberfläche hier noch nicht.

    Betreten Sie die Matrix mit Brain-Computer Interface

    Es gibt noch eine andere Form der Kommunikation, die noch intuitiver und natürlicher ist als Bewegung, Sprache und AR, wenn es um die Steuerung von Maschinen geht: das Denken selbst.

    Diese Wissenschaft ist ein Gebiet der Bioelektronik namens Brain-Computer Interface (BCI). Es beinhaltet die Verwendung eines Gehirnscangeräts oder eines Implantats, um Ihre Gehirnwellen zu überwachen und sie mit Befehlen zu verknüpfen, um alles zu steuern, was von einem Computer ausgeführt wird.

    Tatsächlich haben Sie es vielleicht nicht bemerkt, aber die Anfänge von BCI haben bereits begonnen. Amputierte sind jetzt Testen von Robotergliedern direkt vom Verstand gesteuert, anstatt durch Sensoren, die am Stumpf des Trägers angebracht sind. Ebenso Menschen mit Schwerbehinderungen (zB Menschen mit Querschnittslähmung) sind jetzt BCI verwenden, um ihre motorisierten Rollstühle zu steuern und Roboterarme manipulieren. Aber Amputierten und Menschen mit Behinderungen dabei zu helfen, ein unabhängigeres Leben zu führen, ist nicht das Ausmaß dessen, wozu BCI in der Lage sein wird. Hier ist eine kurze Liste der derzeit laufenden Experimente:

    Dinge kontrollieren. Forscher haben erfolgreich gezeigt, wie BCI es Benutzern ermöglichen kann, Haushaltsfunktionen (Beleuchtung, Vorhänge, Temperatur) sowie eine Reihe anderer Geräte und Fahrzeuge zu steuern. Uhr das Demonstrationsvideo.

    Tiere kontrollieren. Ein Labor hat erfolgreich ein BCI-Experiment getestet, bei dem ein Mensch in der Lage war, a Laborratte bewegt ihren Schwanz nur mit seinen Gedanken.

    Gehirn-zu-Text. Ein gelähmter Mann ein Gehirnimplantat verwendet acht Wörter pro Minute zu tippen. Inzwischen Teams in der US und Deutschland entwickeln ein System, das Gehirnwellen (Gedanken) in Text umwandelt. Erste Experimente haben sich als erfolgreich erwiesen, und sie hoffen, dass diese Technologie nicht nur dem Durchschnittsbürger helfen, sondern auch Menschen mit schweren Behinderungen (wie dem renommierten Physiker Stephen Hawking) die Möglichkeit geben kann, leichter mit der Welt zu kommunizieren.

    Gehirn zu Gehirn. Dies gelang einem internationalen Team von Wissenschaftlern Telepathie imitieren Indem eine Person aus Indien das Wort „Hallo“ dachte, und durch BCI wurde dieses Wort von Gehirnwellen in Binärcode umgewandelt und dann per E-Mail nach Frankreich geschickt, wo dieser Binärcode wieder in Gehirnwellen umgewandelt wurde, um von der empfangenden Person wahrgenommen zu werden . Kommunikation von Gehirn zu Gehirn, Leute!

    Träume und Erinnerungen festhalten. Forscher in Berkeley, Kalifornien, haben unglaubliche Fortschritte bei der Konvertierung gemacht Gehirnwellen in Bilder. Den Testpersonen wurde eine Reihe von Bildern präsentiert, während sie mit BCI-Sensoren verbunden waren. Dieselben Bilder wurden dann auf einem Computerbildschirm rekonstruiert. Die rekonstruierten Bilder waren superkörnig, aber bei einer Entwicklungszeit von etwa einem Jahrzehnt wird es uns dieser Machbarkeitsnachweis eines Tages ermöglichen, unsere GoPro-Kamera fallen zu lassen oder sogar unsere Träume aufzuzeichnen.

    Wir werden Zauberer, sagst du?

    Zunächst werden wir externe Geräte für BCI verwenden, die wie ein Helm oder Haarband aussehen (2030er), die schließlich Gehirnimplantaten weichen werden (Ende der 2040er). Letztendlich werden diese BCI-Geräte unseren Geist mit der digitalen Cloud verbinden und später als dritte Hemisphäre für unseren Geist fungieren – während also unsere linke und rechte Hemisphäre unsere Kreativität und unsere logischen Fähigkeiten verwalten, wird diese neue, Cloud-gespeiste digitale Hemisphäre unsere Fähigkeiten erleichtern wo Menschen oft hinter ihren KI-Gegenstücken zurückbleiben, nämlich Geschwindigkeit, Wiederholung und Genauigkeit.

    BCI ist der Schlüssel zum aufstrebenden Gebiet der Neurotechnologie, das darauf abzielt, unseren Verstand mit Maschinen zu verschmelzen, um die Stärken beider Welten zu nutzen. Das ist richtig, jeder, in den 2030er Jahren und in den späten 2040er Jahren weit verbreitet, werden Menschen BCI verwenden, um unser Gehirn zu verbessern sowie miteinander und mit Tieren zu kommunizieren, Computer und Elektronik zu steuern, Erinnerungen und Träume zu teilen und im Internet zu navigieren.

    Ich weiß was du denkst: Ja, das ist schnell eskaliert.

    Aber so aufregend all diese UI-Fortschritte auch sind, sie werden niemals ohne ebenso aufregende Fortschritte in der Computersoftware und -hardware möglich sein. Diese Durchbrüche werden im Rest dieser Serie über die Zukunft der Computer untersucht.

    Reihe Zukunft der Computer

    Zukunft der Softwareentwicklung: Zukunft der Computer P2

    Die digitale Speicherrevolution: Die Zukunft der Computer P3

    Ein schwindendes Mooresches Gesetz, um ein grundlegendes Umdenken bei Mikrochips auszulösen: Future of Computers P4

    Cloud Computing wird dezentralisiert: Future of Computers P5

    Warum konkurrieren Länder um den Bau der größten Supercomputer? Zukunft der Computer P6

    Wie Quantencomputer die Welt verändern werden: Future of Computers P7     

    Nächstes geplantes Update für diese Prognose

    2023-02-08

    Prognosereferenzen

    Für diese Prognose wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    Für diese Prognose wurde auf die folgenden Quantumrun-Links verwiesen: