Gestes, hologrammes et téléchargement d'esprit de style matriciel

CRÉDIT D'IMAGE: Course quantique

Gestes, hologrammes et téléchargement d'esprit de style matriciel

    D'abord, c'était les cartes perforées, puis c'était la souris et le clavier emblématiques. Les outils et les systèmes que nous utilisons pour interagir avec les ordinateurs nous permettent de contrôler et de construire le monde qui nous entoure d'une manière inimaginable pour nos ancêtres. Nous avons parcouru un long chemin pour être sûr, mais quand il s'agit du domaine de l'interface utilisateur (UI, ou les moyens par lesquels nous interagissons avec les systèmes informatiques), nous n'avons vraiment encore rien vu.

    Au cours des deux derniers épisodes de notre série Future of Computers, nous avons exploré comment les innovations à venir vont remodeler les humbles puce ainsi que disque lancera à son tour des révolutions mondiales dans les affaires et la société. Mais ces innovations pâliront par rapport aux percées de l'interface utilisateur actuellement testées dans les laboratoires scientifiques et les garages du monde entier.

    Chaque fois que l'humanité a inventé une nouvelle forme de communication - que ce soit la parole, l'écrit, l'imprimerie, le téléphone, Internet - notre société collective s'est épanouie avec de nouvelles idées, de nouvelles formes de communauté et des industries entièrement nouvelles. La prochaine décennie verra la prochaine évolution, le prochain saut quantique dans la communication et l'interconnectivité… et cela pourrait simplement remodeler ce que signifie être humain.

    Qu'est-ce qu'une bonne interface utilisateur, de toute façon ?

    L'ère de piquer, pincer et balayer les ordinateurs pour les amener à faire ce que nous voulions a commencé il y a dix ans. Pour beaucoup, tout a commencé avec l'iPod. Alors qu'autrefois nous étions habitués à cliquer, taper et appuyer sur des boutons robustes pour communiquer nos volontés aux machines, l'iPod a popularisé le concept de balayer vers la gauche ou la droite sur un cercle pour sélectionner la musique que vous vouliez écouter.

    Les smartphones à écran tactile ont également commencé à entrer sur le marché à cette époque, introduisant une gamme d'autres invites de commande tactiles comme le poke (pour simuler l'appui sur un bouton), le pincement (pour zoomer et dézoomer), la pression, maintenir et faire glisser (pour sauter entre les programmes, généralement). Ces commandes tactiles ont rapidement gagné du terrain auprès du public pour plusieurs raisons : Elles étaient nouvelles. Tous les enfants cool (célèbres) le faisaient. La technologie des écrans tactiles est devenue bon marché et courante. Mais surtout, les mouvements étaient naturels, intuitifs.

    C'est la raison d'être d'une bonne interface utilisateur informatique : créer des moyens plus naturels et intuitifs d'interagir avec les logiciels et les appareils. Et c'est le principe de base qui guidera les futurs appareils d'interface utilisateur que vous allez découvrir.

    Pousser, pincer et balayer l'air

    Depuis 2015, les smartphones ont remplacé les téléphones mobiles standard dans une grande partie du monde développé. Cela signifie qu'une grande partie du monde est désormais familiarisée avec les différentes commandes tactiles mentionnées ci-dessus. Grâce à des applications et à des jeux, les utilisateurs de smartphones ont appris une grande variété de compétences abstraites pour contrôler les superordinateurs dans leurs poches.

    Ce sont ces compétences qui prépareront les consommateurs à la prochaine vague d'appareils, des appareils qui nous permettront de fusionner plus facilement le monde numérique avec nos environnements réels. Jetons donc un coup d'œil à certains des outils que nous utiliserons pour naviguer dans notre monde futur.

    Commande gestuelle en plein air. En 2015, nous sommes toujours dans le micro-âge du contrôle tactile. Nous poussons, pinçons et balayons toujours notre chemin à travers nos vies mobiles. Mais ce contrôle tactile cède lentement la place à une forme de contrôle gestuel en plein air. Pour les joueurs, votre première interaction avec cela peut avoir été de jouer à des jeux Nintendo Wii hyperactifs ou aux derniers jeux Xbox Kinect - les deux consoles utilisent une technologie avancée de capture de mouvement pour faire correspondre les mouvements des joueurs avec les avatars du jeu.

    Eh bien, cette technologie ne se limite pas aux jeux vidéo et à la réalisation de films sur écran vert ; Il entrera bientôt sur le marché plus large de l'électronique grand public. Un exemple frappant de ce à quoi cela pourrait ressembler est une entreprise de Google nommée Project Soli (regardez son incroyable et courte vidéo de démonstration ici). Les développeurs de ce projet utilisent un radar miniature pour suivre les mouvements fins de votre main et de vos doigts afin de simuler le coup, le pincement et le balayage en plein air plutôt que contre un écran. C'est le genre de technologie qui contribuera à rendre les appareils portables plus faciles à utiliser et donc plus attrayants pour un public plus large.

    Interface tridimensionnelle. Poussant ce contrôle gestuel en plein air plus loin dans sa progression naturelle, au milieu des années 2020, nous pourrions voir l'interface de bureau traditionnelle - le clavier et la souris fidèles - lentement remplacée par l'interface gestuelle, dans le même style popularisé par le film, Minority Signaler. En fait, John Underkoffler, chercheur en interface utilisateur, conseiller scientifique et inventeur des scènes d'interface gestuelle holographique de Minority Report, travaille actuellement sur le version réelle— une technologie qu'il appelle un environnement d'exploitation spatial d'interface homme-machine.

    Grâce à cette technologie, vous serez un jour assis ou debout devant un grand écran et utiliserez divers gestes de la main pour commander votre ordinateur. Cela a l'air vraiment cool (voir le lien ci-dessus), mais comme vous pouvez le deviner, les gestes de la main peuvent être parfaits pour sauter des chaînes de télévision, pointer/cliquer sur des liens ou concevoir des modèles en trois dimensions, mais ils ne fonctionneront pas aussi bien lors de l'écriture longue essais. C'est pourquoi, à mesure que la technologie gestuelle en plein air est progressivement incluse dans de plus en plus d'électronique grand public, elle sera probablement rejointe par des fonctionnalités d'interface utilisateur complémentaires telles que la commande vocale avancée et la technologie de suivi de l'iris.

    Oui, l'humble clavier physique peut encore survivre dans les années 2020… du moins jusqu'à ce que ces deux prochaines innovations le numérisent entièrement d'ici la fin de cette décennie.

    Hologrammes haptiques. Les hologrammes que nous avons tous vus en personne ou dans les films ont tendance à être des projections de lumière 2D ou 3D qui montrent des objets ou des personnes planant dans les airs. Ce que ces projections ont toutes en commun, c'est que si vous tendiez la main pour les attraper, vous n'obtiendriez qu'une poignée d'air. Ce ne sera plus le cas bien longtemps.

    Nouvelles technologies (voir exemples : UN ainsi que deux) sont en cours de développement pour créer des hologrammes que vous pouvez toucher (ou au moins imiter la sensation du toucher, c'est-à-dire l'haptique). Selon la technique utilisée, qu'il s'agisse d'ondes ultrasonores ou de projection plasma, les hologrammes haptiques ouvriront une toute nouvelle industrie de produits numériques utilisables dans le monde réel.

    Pensez-y, au lieu d'un clavier physique, vous pouvez en avoir un holographique qui peut vous donner la sensation physique de taper, où que vous soyez dans une pièce. Cette technologie est ce qui intégrera le Interface en plein air du rapport minoritaire et mettre fin à l'âge du bureau traditionnel.

    Imaginez ceci : au lieu de transporter un ordinateur portable encombrant, vous pourriez un jour transporter une petite plaquette carrée (peut-être de la taille d'un boîtier de CD) qui projetterait un écran tactile et un clavier. Poussez un peu plus loin, imaginez un bureau avec seulement un bureau et une chaise, puis d'une simple commande vocale, tout un bureau se projette autour de vous : un poste de travail holographique, des décorations murales, des plantes, etc. peut impliquer une visite à l'App Store ainsi qu'une visite à Ikea.

    Réalité virtuelle et augmentée. Semblable aux hologrammes haptiques expliqués ci-dessus, la réalité virtuelle et augmentée jouera un rôle similaire dans l'interface utilisateur des années 2020. Chacun aura ses propres articles pour les expliquer pleinement, mais pour les besoins de cet article, il est utile de savoir ce qui suit : la réalité virtuelle se limitera en grande partie aux jeux avancés, aux simulations de formation et à la visualisation de données abstraites pour la prochaine décennie.

    Pendant ce temps, la réalité augmentée aura un attrait commercial beaucoup plus large car elle superposera des informations numériques sur le monde réel ; si vous avez déjà vu la vidéo promotionnelle pour Google glass (vidéo), alors vous comprendrez à quel point cette technologie peut être utile un jour une fois qu'elle arrivera à maturité au milieu des années 2020.

    Votre assistant virtuel

    Nous avons couvert les formes tactiles et de mouvement de l'interface utilisateur pour prendre en charge nos futurs ordinateurs et appareils électroniques. Il est maintenant temps d'explorer une autre forme d'interface utilisateur qui pourrait sembler encore plus naturelle et intuitive : la parole.

    Ceux qui possèdent les derniers modèles de smartphones ont probablement déjà expérimenté la reconnaissance vocale, que ce soit sous la forme de Siri pour iPhone, de Google Now pour Android ou de Windows Cortana. Ces services sont conçus pour vous permettre d'interagir avec votre téléphone et d'accéder à la banque de connaissances du Web simplement en disant verbalement à ces "assistants virtuels" ce que vous voulez.

    C'est un incroyable exploit d'ingénierie, mais ce n'est pas non plus tout à fait parfait. Quiconque a joué avec ces services sait qu'ils interprètent souvent mal votre discours (en particulier pour les personnes aux accents épais) et qu'ils vous donnent parfois une réponse que vous ne cherchiez pas.

    Heureusement, ces échecs ne dureront pas longtemps. Google annoncé en mai 2015 que sa technologie de reconnaissance vocale n'a plus qu'un taux d'erreur de 2020 % et qu'il diminue. Lorsque vous combinez ce taux d'erreur en baisse avec les innovations massives qui se produisent avec les micropuces et le cloud computing, nous pouvons nous attendre à ce que les assistants virtuels deviennent d'une précision effrayante d'ici XNUMX.

    Regarde cette video pour un exemple de ce qui est possible et de ce qui deviendra accessible au public dans quelques années.

    Cela peut être choquant à réaliser, mais les assistants virtuels actuellement en cours de conception comprendront non seulement parfaitement votre discours, mais ils comprendront également le contexte derrière les questions que vous posez ; ils reconnaîtront les signaux indirects émis par votre ton de voix ; ils engageront même de longues conversations avec vous, Son-style.

    Dans l'ensemble, les assistants virtuels basés sur la reconnaissance vocale deviendront le principal moyen d'accéder au Web pour nos besoins d'information quotidiens. Pendant ce temps, les formes physiques de l'interface utilisateur explorées précédemment domineront probablement nos activités numériques axées sur les loisirs et le travail. Mais ce n'est pas la fin de notre voyage dans l'interface utilisateur, loin de là.

    Entrez dans la matrice avec l'interface cerveau-ordinateur

    Juste au moment où vous pensiez que nous avions tout couvert, il existe encore une autre forme de communication qui est encore plus intuitive et naturelle que le toucher, le mouvement et la parole lorsqu'il s'agit de contrôler des machines : la pensée elle-même.

    Cette science est un domaine de la bioélectronique appelé Brain-Computer Interface (BCI). Cela implique l'utilisation d'un implant ou d'un scanner cérébral pour surveiller vos ondes cérébrales et les associer à des commandes pour contrôler tout ce qui est géré par un ordinateur.

    En fait, vous ne l'avez peut-être pas réalisé, mais les premiers jours de BCI ont déjà commencé. Les amputés sont maintenant tester des membres robotiques contrôlé directement par l'esprit, au lieu de passer par des capteurs attachés au moignon du porteur. De même, les personnes gravement handicapées (telles que les tétraplégiques) sont désormais utilisant BCI pour diriger leurs fauteuils roulants motorisés et manipuler des bras robotiques. Mais aider les amputés et les personnes handicapées à mener une vie plus indépendante n'est pas à la hauteur de ce dont BCI sera capable. Voici une courte liste des expériences en cours :

    Contrôler les choses. Les chercheurs ont démontré avec succès comment BCI peut permettre aux utilisateurs de contrôler les fonctions domestiques (éclairage, rideaux, température), ainsi qu'une gamme d'autres appareils et véhicules. Regardez vidéo de démonstration.

    Contrôler les animaux. Un laboratoire a testé avec succès une expérience BCI où un humain a pu faire un rat de laboratoire bouge sa queue n'utilisant que ses pensées.

    Du cerveau au texte. Les équipes dans le US ainsi que Allemagne développent un système qui décode les ondes cérébrales (pensées) en texte. Les premières expériences se sont avérées fructueuses, et ils espèrent que cette technologie pourra non seulement aider la personne moyenne, mais aussi fournir aux personnes gravement handicapées (comme le physicien de renom, Stephen Hawking) la capacité de communiquer plus facilement avec le monde.

    Cerveau à cerveau. Une équipe internationale de scientifiques a pu imiter la télépathie en demandant à une personne d'Inde de penser au mot "bonjour", et grâce à BCI, ce mot a été converti d'ondes cérébrales en code binaire, puis envoyé par e-mail en France, où ce code binaire a été reconverti en ondes cérébrales, pour être perçu par la personne destinataire . Communication cerveau-à-cerveau, les amis !

    Enregistrement des rêves et des souvenirs. Des chercheurs de Berkeley, en Californie, ont fait des progrès incroyables en convertissant ondes cérébrales en images. Les sujets de test ont reçu une série d'images alors qu'ils étaient connectés aux capteurs BCI. Ces mêmes images ont ensuite été reconstruites sur un écran d'ordinateur. Les images reconstruites étaient super granuleuses, mais compte tenu d'environ une décennie de temps de développement, cette preuve de concept nous permettra un jour d'abandonner notre caméra GoPro ou même d'enregistrer nos rêves.

    Nous allons devenir des sorciers, dites-vous ?

    C'est vrai tout le monde, d'ici les années 2030 et généralisés à la fin des années 2040, les humains commenceront à communiquer entre eux et avec les animaux, à contrôler les ordinateurs et l'électronique, à partager des souvenirs et des rêves et à naviguer sur le Web, tout cela en utilisant notre esprit.

    Je sais ce que tu penses: Oui, ça s'est vite accéléré. Mais qu'est-ce que tout cela signifie? Comment ces technologies d'interface utilisateur vont-elles remodeler notre société partagée ? Eh bien, je suppose que vous n'aurez qu'à lire le dernier épisode de notre série Future of Computers pour le savoir.

    LIENS DE LA SÉRIE AVENIR DES ORDINATEURS

    Le ralentissement de l'appétit pour les bits, les octets et les coudées selon la loi de Moores : l'avenir des ordinateurs P1

    La révolution du stockage numérique : l'avenir des ordinateurs P2

    Société et génération hybride : l'avenir des ordinateurs P4

    Prochaine mise à jour prévue pour cette prévision

    2023-01-26

    Références prévisionnelles

    Les liens populaires et institutionnels suivants ont été référencés pour cette prévision :

    Les liens Quantumrun suivants ont été référencés pour cette prévision :