Gestos, hologramas y carga mental estilo matriz

CREDITO DE IMAGEN: carrera cuántica

Gestos, hologramas y carga mental estilo matriz

    Primero fueron las tarjetas perforadas, luego el icónico mouse y teclado. Las herramientas y los sistemas que usamos para interactuar con las computadoras nos permiten controlar y construir el mundo que nos rodea de formas inimaginables para nuestros antepasados. Sin duda, hemos recorrido un largo camino, pero cuando se trata del campo de la interfaz de usuario (IU, o los medios por los cuales interactuamos con los sistemas informáticos), realmente no hemos visto nada todavía.

    En las últimas dos entregas de nuestra serie Future of Computers, exploramos cómo las próximas innovaciones cambiarán la forma de los humildes microchip y disco duro a su vez, lanzará revoluciones globales en los negocios y la sociedad. Pero estas innovaciones palidecerán en comparación con los avances de la interfaz de usuario que ahora se prueban en los laboratorios de ciencias y en los garajes de todo el mundo.

    Cada vez que la humanidad ha inventado una nueva forma de comunicación, ya sea el habla, la palabra escrita, la imprenta, el teléfono, Internet, nuestra sociedad colectiva floreció con nuevas ideas, nuevas formas de comunidad e industrias completamente nuevas. La próxima década verá la próxima evolución, el próximo salto cuántico en la comunicación y la interconectividad... y puede que remodele lo que significa ser humano.

    ¿Qué es una buena interfaz de usuario, de todos modos?

    La era de hurgar, pellizcar y deslizar las computadoras para que hicieran lo que queríamos comenzó hace una década. Para muchos, todo comenzó con el iPod. Donde una vez estábamos acostumbrados a hacer clic, escribir y presionar botones resistentes para comunicar nuestra voluntad a las máquinas, el iPod popularizó el concepto de deslizar hacia la izquierda o hacia la derecha en un círculo para seleccionar la música que quería escuchar.

    Los teléfonos inteligentes con pantalla táctil también comenzaron a ingresar al mercado en esa época, presentando una variedad de otras indicaciones de comando táctiles como empujar (para simular presionar un botón), pellizcar (para acercar y alejar), presionar, mantener presionado y arrastrar (para omitir entre programas, por lo general). Estos comandos táctiles ganaron terreno rápidamente entre el público por varias razones: Eran nuevos. Todos los chicos geniales (famosos) lo estaban haciendo. La tecnología de pantalla táctil se volvió barata y convencional. Pero sobre todo, los movimientos se sentían naturales, intuitivos.

    De eso se trata una buena interfaz de usuario: crear formas más naturales e intuitivas de interactuar con el software y los dispositivos. Y ese es el principio central que guiará los futuros dispositivos de interfaz de usuario que está a punto de conocer.

    Empujar, pellizcar y deslizar el aire

    A partir de 2015, los teléfonos inteligentes reemplazaron a los teléfonos móviles estándar en gran parte del mundo desarrollado. Esto significa que una gran parte del mundo ahora está familiarizado con los diversos comandos táctiles mencionados anteriormente. A través de aplicaciones y juegos, los usuarios de teléfonos inteligentes han aprendido una gran variedad de habilidades abstractas para controlar las supercomputadoras en sus bolsillos.

    Son estas habilidades las que prepararán a los consumidores para la próxima ola de dispositivos, dispositivos que nos permitirán fusionar más fácilmente el mundo digital con nuestros entornos del mundo real. Así que echemos un vistazo a algunas de las herramientas que usaremos para navegar por nuestro mundo futuro.

    Control de gestos al aire libre. A partir de 2015, todavía estamos en la micro-era del control táctil. Todavía empujamos, pellizcamos y deslizamos nuestro camino a través de nuestras vidas móviles. Pero ese control táctil está dando paso lentamente a una forma de control de gestos al aire libre. Para los jugadores, su primera interacción con esto puede haber sido jugar juegos hiperactivos de Nintendo Wii o los últimos juegos de Xbox Kinect; ambas consolas usan tecnología avanzada de captura de movimiento para hacer coincidir los movimientos de los jugadores con los avatares del juego.

    Bueno, esta tecnología no se limita a los videojuegos y la realización de películas en pantalla verde; Pronto ingresará al mercado más amplio de productos electrónicos de consumo. Un ejemplo sorprendente de cómo podría verse esto es una empresa de Google llamada Project Soli (vea su increíble y breve video de demostración esta página). Los desarrolladores de este proyecto utilizan un radar en miniatura para rastrear los movimientos finos de la mano y los dedos para simular empujar, pellizcar y deslizar al aire libre en lugar de contra una pantalla. Este es el tipo de tecnología que ayudará a que los dispositivos portátiles sean más fáciles de usar y, por lo tanto, más atractivos para un público más amplio.

    Interfaz tridimensional. Llevando este control de gestos al aire libre más allá de su progresión natural, a mediados de la década de 2020, es posible que veamos que la interfaz de escritorio tradicional (el teclado y el mouse confiables) se reemplaza lentamente por la interfaz de gestos, en el mismo estilo popularizado por la película, Minority Reporte. De hecho, John Underkoffler, investigador de interfaz de usuario, asesor científico e inventor de las escenas de interfaz de gestos holográficos de Minority Report, está trabajando actualmente en el versión de la vida real—una tecnología a la que se refiere como un entorno operativo espacial de interfaz hombre-máquina.

    Con esta tecnología, algún día se sentará o se parará frente a una pantalla grande y usará varios gestos con las manos para controlar su computadora. Se ve muy bien (vea el enlace de arriba), pero como puede suponer, los gestos con las manos pueden ser excelentes para saltar canales de televisión, señalar/hacer clic en enlaces o diseñar modelos tridimensionales, pero no funcionarán tan bien cuando se escribe mucho. ensayos Es por eso que, a medida que la tecnología de gestos al aire libre se incluye gradualmente en más y más productos electrónicos de consumo, es probable que se le unan funciones de interfaz de usuario complementarias, como el comando de voz avanzado y la tecnología de seguimiento del iris.

    Sí, el humilde teclado físico aún puede sobrevivir hasta la década de 2020... al menos hasta que estas dos próximas innovaciones lo digitalicen por completo para fines de esa década.

    Hologramas hápticos. Los hologramas que todos hemos visto en persona o en las películas tienden a ser proyecciones de luz en 2D o 3D que muestran objetos o personas flotando en el aire. Lo que todas estas proyecciones tienen en común es que si estiras la mano para agarrarlas, solo obtendrás un puñado de aire. Ese no será el caso por mucho más tiempo.

    Nuevas tecnologías (ver ejemplos: una y dos) se están desarrollando para crear hologramas que se pueden tocar (o al menos imitar la sensación del tacto, es decir, hápticos). Dependiendo de la técnica utilizada, ya sean ondas ultrasónicas o proyección de plasma, los hologramas hápticos abrirán una industria completamente nueva de productos digitales que se pueden usar en el mundo real.

    Piénsalo, en lugar de un teclado físico, puedes tener uno holográfico que te dé la sensación física de escribir, estés donde estés en una habitación. Esta tecnología es la que incorporará la Interfaz al aire libre de Minority Report y acabar con la era del escritorio tradicional.

    Imagínese esto: en lugar de llevar una computadora portátil voluminosa, algún día podría llevar una pequeña oblea cuadrada (tal vez del tamaño de una caja de CD) que proyectaría una pantalla táctil y un teclado. Dando un paso más allá, imagine una oficina con solo un escritorio y una silla, luego, con un simple comando de voz, una oficina completa se proyecta a su alrededor: una estación de trabajo holográfica, decoraciones para paredes, plantas, etc. Compra de muebles o decoración en el futuro puede implicar una visita a la tienda de aplicaciones junto con una visita a Ikea.

    Realidad virtual y aumentada. De manera similar a los hologramas hápticos explicados anteriormente, la realidad virtual y aumentada desempeñará un papel similar en la interfaz de usuario de la década de 2020. Cada uno tendrá sus propios artículos para explicarlos completamente, pero para el propósito de este artículo, es útil saber lo siguiente: La realidad virtual se limitará en gran medida a juegos avanzados, simulaciones de entrenamiento y visualización de datos abstractos durante la próxima década.

    Mientras tanto, la realidad aumentada tendrá un atractivo comercial mucho más amplio, ya que superpondrá información digital sobre el mundo real; si alguna vez has visto el video promocional de Google Glass (video), comprenderá cuán útil puede ser esta tecnología algún día, una vez que madure a mediados de la década de 2020.

    Tu asistente virtual

    Hemos cubierto las formas táctiles y de movimiento de la interfaz de usuario configuradas para hacerse cargo de nuestras futuras computadoras y dispositivos electrónicos. Ahora es el momento de explorar otra forma de interfaz de usuario que podría sentirse aún más natural e intuitiva: el habla.

    Aquellos que poseen los últimos modelos de teléfonos inteligentes probablemente ya hayan experimentado el reconocimiento de voz, ya sea en la forma de Siri de iPhone, Google Now de Android o Cortana de Windows. Estos servicios están diseñados para permitirle interactuar con su teléfono y acceder al banco de conocimiento de la web simplemente diciéndoles verbalmente a estos 'asistentes virtuales' lo que desea.

    Es una asombrosa proeza de la ingeniería, pero tampoco es del todo perfecta. Cualquiera que haya jugado con estos servicios sabe que a menudo malinterpretan tu discurso (especialmente para aquellas personas con acentos marcados) y ocasionalmente te dan una respuesta que no estabas buscando.

    Afortunadamente, estas fallas no durarán mucho más. Google anunció en mayo de 2015 que su tecnología de reconocimiento de voz ahora solo tiene una tasa de error del ocho por ciento y se está reduciendo. Cuando combina esta tasa de error descendente con las innovaciones masivas que ocurren con los microchips y la computación en la nube, podemos esperar que los asistentes virtuales sean terriblemente precisos para 2020.

    Mira este video para ver un ejemplo de lo que es posible y lo que estará disponible públicamente en unos pocos años.

    Puede ser impactante darse cuenta, pero los asistentes virtuales que se están diseñando actualmente no solo entenderán perfectamente su discurso, sino que también entenderán el contexto detrás de las preguntas que haga; reconocerán las señales indirectas que emite tu tono de voz; incluso entablarán conversaciones largas contigo, Sus libros introductorios a las enseñanzas-estilo.

    En general, los asistentes virtuales basados ​​en el reconocimiento de voz se convertirán en la forma principal de acceder a la web para nuestras necesidades de información diarias. Mientras tanto, las formas físicas de la interfaz de usuario exploradas anteriormente probablemente dominarán nuestras actividades digitales centradas en el ocio y el trabajo. Pero este no es el final de nuestro viaje de UI, ni mucho menos.

    Ingrese a Matrix con la interfaz de computadora cerebral

    Justo cuando pensabas que lo habíamos cubierto todo, existe otra forma de comunicación que es aún más intuitiva y natural que el tacto, el movimiento y el habla cuando se trata de controlar máquinas: el pensamiento mismo.

    Esta ciencia es un campo de la bioelectrónica llamado interfaz cerebro-computadora (BCI). Implica el uso de un implante o un dispositivo de escaneo cerebral para monitorear sus ondas cerebrales y asociarlas con comandos para controlar cualquier cosa que ejecute una computadora.

    De hecho, es posible que no te hayas dado cuenta, pero los primeros días de BCI ya han comenzado. Los amputados son ahora prueba de extremidades robóticas controlado directamente por la mente, en lugar de a través de sensores conectados al muñón del usuario. Asimismo, las personas con discapacidades graves (como los tetrapléjicos) ahora utilizando BCI para dirigir sus sillas de ruedas motorizadas y manipular brazos robóticos. Pero ayudar a las personas amputadas y discapacitadas a llevar una vida más independiente no es todo lo que BCI será capaz de hacer. Aquí hay una breve lista de los experimentos que ahora están en marcha:

    controlar las cosas. Los investigadores han demostrado con éxito cómo BCI puede permitir a los usuarios controlar las funciones del hogar (iluminación, cortinas, temperatura), así como una variedad de otros dispositivos y vehículos. Reloj video demostrativo.

    control de animales. Un laboratorio probó con éxito un experimento BCI en el que un ser humano pudo hacer un rata de laboratorio mueve su cola utilizando sólo sus pensamientos.

    Cerebro a texto. equipos en el US y Alemania están desarrollando un sistema que decodifica las ondas cerebrales (pensamientos) en texto. Los experimentos iniciales han resultado exitosos y esperan que esta tecnología no solo pueda ayudar a la persona promedio, sino que también brinde a las personas con discapacidades graves (como el renombrado físico Stephen Hawking) la capacidad de comunicarse con el mundo más fácilmente.

    cerebro a cerebro. Un equipo internacional de científicos pudo imitar la telepatía haciendo que una persona de la India pensara la palabra "hola", y a través de BCI, esa palabra se convirtió de ondas cerebrales a código binario, luego se envió por correo electrónico a Francia, donde ese código binario se convirtió nuevamente en ondas cerebrales, para ser percibido por la persona receptora . ¡Comunicación cerebro a cerebro, gente!

    Grabación de sueños y recuerdos. Investigadores de Berkeley, California, han logrado un progreso increíble al convertir ondas cerebrales en imágenes. A los sujetos de prueba se les presentó una serie de imágenes mientras estaban conectados a sensores BCI. Esas mismas imágenes fueron luego reconstruidas en una pantalla de computadora. Las imágenes reconstruidas eran súper granuladas, pero dada una década de tiempo de desarrollo, esta prueba de concepto algún día nos permitirá deshacernos de nuestra cámara GoPro o incluso grabar nuestros sueños.

    ¿Vamos a convertirnos en magos, dices?

    Así es para todos, para la década de 2030 e integrados a fines de la década de 2040, los humanos comenzarán a comunicarse entre sí y con animales, controlar computadoras y dispositivos electrónicos, compartir recuerdos y sueños, y navegar por la web, todo usando nuestras mentes.

    Sé lo que estás pensando: Sí, eso se intensificó rápidamente.. Pero que significa todo esto? ¿Cómo remodelarán estas tecnologías de interfaz de usuario nuestra sociedad compartida? Bueno, supongo que solo tendrás que leer la última entrega de nuestra serie Future of Computers para averiguarlo.

    ENLACES DE LA SERIE EL FUTURO DE LAS COMPUTADORAS

    La disminución del apetito por bits, bytes y codos de Moores Law: el futuro de las computadoras P1

    La revolución del almacenamiento digital: el futuro de las computadoras P2

    La Sociedad y la Generación Híbrida: El Futuro de las Computadoras P4

    Próxima actualización programada para este pronóstico

    2023-01-26

    Referencias de previsión

    Los siguientes enlaces populares e institucionales fueron referenciados para este pronóstico:

    Se hizo referencia a los siguientes enlaces de Quantumrun para este pronóstico: