Di adiós a tu mouse y teclado, nuevas interfaces de usuario para redefinir la humanidad: El futuro de las computadoras P1

CREDITO DE IMAGEN: carrera cuántica

Di adiós a tu mouse y teclado, nuevas interfaces de usuario para redefinir la humanidad: El futuro de las computadoras P1

    Primero, fueron las tarjetas perforadas; luego fue el ratón y el teclado icónicos. Las herramientas y los sistemas que usamos para interactuar con las computadoras nos permiten controlar y construir el mundo que nos rodea de formas inimaginables para nuestros antepasados. Sin duda, hemos recorrido un largo camino, pero cuando se trata del campo de la interfaz de usuario (IU, los medios por los cuales interactuamos con los sistemas informáticos), aún no hemos visto nada.

    Algunos podrían decir que es extraño comenzar nuestra serie El futuro de las computadoras con un capítulo sobre la interfaz de usuario, pero es la forma en que usamos las computadoras lo que dará sentido a las innovaciones que exploramos en el resto de esta serie.

    Cada vez que la humanidad inventó una nueva forma de comunicación, ya sea el habla, la palabra escrita, la imprenta, el teléfono, Internet, nuestra sociedad colectiva floreció con nuevas ideas, nuevas formas de comunidad e industrias completamente nuevas. La próxima década verá la próxima evolución, el próximo salto cuántico en comunicación e interconectividad, completamente intermediado por una gama de futuras interfaces informáticas... y puede que remodele lo que significa ser humano.

    ¿Qué es una interfaz de usuario 'buena', de todos modos?

    La era de hurgar, pellizcar y deslizar las computadoras para que hicieran lo que queríamos comenzó hace más de una década. Para muchos, todo comenzó con el iPod. Donde una vez estábamos acostumbrados a hacer clic, escribir y presionar botones resistentes para comunicar nuestras voluntades a las máquinas, el iPod popularizó el concepto de deslizar hacia la izquierda o hacia la derecha en un círculo para seleccionar la música que quería escuchar.

    Los teléfonos inteligentes con pantalla táctil ingresaron al mercado poco después de eso, presentando una gama de otras indicaciones de comando táctiles como empujar (para simular presionar un botón), pellizcar (para acercar y alejar), presionar, mantener presionado y arrastrar. Estos comandos táctiles ganaron terreno rápidamente entre el público por varias razones: Eran nuevos. Todos los chicos geniales (famosos) lo estaban haciendo. La tecnología de pantalla táctil se volvió barata y convencional. Pero sobre todo, los movimientos se sentían intuitivos, naturales.

    De eso se trata una buena interfaz de usuario: crear formas más naturales de interactuar con el software y los dispositivos. Y ese es el principio central que guiará los futuros dispositivos de interfaz de usuario que está a punto de conocer.

    Empujar, pellizcar y deslizar el aire

    A partir de 2018, los teléfonos inteligentes reemplazaron a los teléfonos móviles estándar en gran parte del mundo desarrollado. Esto significa que una gran parte del mundo ahora está familiarizado con los diversos comandos táctiles mencionados anteriormente. A través de aplicaciones y juegos, los usuarios de teléfonos inteligentes han aprendido una gran variedad de habilidades abstractas para controlar las supercomputadoras relativas que se encuentran en sus bolsillos. 

    Son estas habilidades las que prepararán a los consumidores para la próxima ola de dispositivos, dispositivos que nos permitirán fusionar más fácilmente el mundo digital con nuestros entornos del mundo real. Así que echemos un vistazo a algunas de las herramientas que usaremos para navegar por nuestro mundo futuro.

    Control de gestos al aire libre. A partir de 2018, todavía estamos en la micro-era del control táctil. Todavía empujamos, pellizcamos y deslizamos nuestro camino a través de nuestras vidas móviles. Pero ese control táctil está dando paso lentamente a una forma de control de gestos al aire libre. Para los jugadores, su primera interacción con esto puede haber sido jugar juegos hiperactivos de Nintendo Wii o Xbox Kinect; ambas consolas usan tecnología avanzada de captura de movimiento para hacer coincidir los movimientos de los jugadores con los avatares del juego. 

    Bueno, esta tecnología no se limita a los videojuegos y las películas de pantalla verde, pronto ingresará al mercado más amplio de productos electrónicos de consumo. Un ejemplo sorprendente de cómo podría verse esto es una empresa de Google llamada Project Soli (vea su increíble y breve video de demostración esta página). Los desarrolladores de este proyecto utilizan un radar en miniatura para rastrear los movimientos finos de la mano y los dedos para simular empujar, pellizcar y deslizar al aire libre en lugar de contra una pantalla. Este es el tipo de tecnología que ayudará a que los dispositivos portátiles sean más fáciles de usar y, por lo tanto, más atractivos para un público más amplio.

    Interfaz tridimensional. Llevando este control de gestos al aire libre más allá de su progresión natural, a mediados de la década de 2020, es posible que veamos que la interfaz de escritorio tradicional (el teclado y el mouse confiables) se reemplaza lentamente por la interfaz de gestos, en el mismo estilo popularizado por la película, Minority Reporte. De hecho, John Underkoffler, investigador de interfaz de usuario, asesor científico e inventor de las escenas de interfaz de gestos holográficos de Minority Report, está trabajando actualmente en el versión de la vida real—una tecnología a la que se refiere como un entorno operativo espacial de interfaz hombre-máquina. (Probablemente tendrá que encontrar un acrónimo útil para eso).

    Con esta tecnología, algún día se sentará o se parará frente a una pantalla grande y usará varios gestos con las manos para controlar su computadora. Se ve muy bien (vea el enlace de arriba), pero como puede suponer, los gestos con las manos pueden ser excelentes para saltar canales de televisión, señalar/hacer clic en enlaces o diseñar modelos tridimensionales, pero no funcionarán tan bien cuando se escribe mucho. ensayos Es por eso que, a medida que la tecnología de gestos al aire libre se incluye gradualmente en más y más productos electrónicos de consumo, es probable que se le unan funciones de interfaz de usuario complementarias, como el comando de voz avanzado y la tecnología de seguimiento del iris. 

    Sí, el humilde teclado físico aún puede sobrevivir hasta la década de 2020.

    Hologramas hápticos. Los hologramas que todos hemos visto en persona o en las películas tienden a ser proyecciones de luz en 2D o 3D que muestran objetos o personas flotando en el aire. Lo que todas estas proyecciones tienen en común es que si estiras la mano para agarrarlas, solo obtendrás un puñado de aire. Ese no será el caso a mediados de la década de 2020.

    Nuevas tecnologías (ver ejemplos: una y dos) se están desarrollando para crear hologramas que se pueden tocar (o al menos imitar la sensación del tacto, es decir, hápticos). Dependiendo de la técnica utilizada, ya sean ondas ultrasónicas o proyección de plasma, los hologramas hápticos abrirán una industria completamente nueva de productos digitales que podemos usar en el mundo real.

    Piénsalo, en lugar de un teclado físico, puedes tener uno holográfico que te dé la sensación física de escribir, estés donde estés en una habitación. Esta tecnología es la que incorporará la Interfaz al aire libre de Minority Report y posiblemente acabar con la era del escritorio tradicional.

    Imagínese esto: en lugar de llevar una computadora portátil voluminosa, algún día podría llevar una pequeña oblea cuadrada (tal vez del tamaño de un disco duro externo delgado) que proyectaría una pantalla táctil y un holograma de teclado. Dando un paso más allá, imagine una oficina con solo un escritorio y una silla, luego, con un simple comando de voz, una oficina completa se proyecta a su alrededor: una estación de trabajo holográfica, decoraciones para paredes, plantas, etc. Compra de muebles o decoración en el futuro puede implicar una visita a la tienda de aplicaciones junto con una visita a Ikea.

    Hablando con tu asistente virtual

    Mientras estamos reinventando lentamente la interfaz de usuario táctil, está surgiendo una forma nueva y complementaria de interfaz de usuario que puede parecer aún más intuitiva para la persona promedio: el habla.

    Amazon causó un gran revuelo cultural con el lanzamiento de su sistema de asistente personal con inteligencia artificial (IA), Alexa, y los diversos productos de asistente doméstico activados por voz que lanzó junto con él. Google, el supuesto líder en IA, se apresuró a hacer lo mismo con su propio conjunto de productos de asistente para el hogar. Y juntos, la competencia multimillonaria combinada entre estos dos gigantes tecnológicos ha llevado a una aceptación rápida y generalizada de productos y asistentes de IA activados por voz entre el mercado de consumo general. Y aunque todavía es pronto para esta tecnología, este crecimiento acelerado no debe subestimarse.

    Ya sea que prefiera Alexa de Amazon, el Asistente de Google, Siri de iPhone o Cortana de Windows, estos servicios están diseñados para permitirle interactuar con su teléfono o dispositivo inteligente y acceder al banco de conocimientos de la web con simples comandos verbales, diciéndoles a estos 'asistentes virtuales' lo que usted quiere.

    Es una asombrosa hazaña de ingeniería. Y aunque no es del todo perfecto, la tecnología está mejorando rápidamente; por ejemplo, google anunció en mayo de 2015 que su tecnología de reconocimiento de voz ahora solo tiene una tasa de error del ocho por ciento y se está reduciendo. Cuando combina esta tasa de error decreciente con las innovaciones masivas que ocurren con los microchips y la computación en la nube (descritas en los próximos capítulos de la serie), podemos esperar que los asistentes virtuales sean agradablemente precisos para 2020.

    Aún mejor, los asistentes virtuales que se están diseñando actualmente no solo entenderán perfectamente su discurso, sino que también entenderán el contexto detrás de las preguntas que haga; reconocerán las señales indirectas que emite tu tono de voz; incluso entablarán conversaciones largas contigo, Sus libros introductorios a las enseñanzas-estilo.

    En general, los asistentes virtuales basados ​​en el reconocimiento de voz se convertirán en la forma principal de acceder a la web para nuestras necesidades de información diarias. Mientras tanto, las formas físicas de la interfaz de usuario exploradas anteriormente probablemente dominarán nuestras actividades digitales centradas en el ocio y el trabajo. Pero este no es el final de nuestro viaje de UI, ni mucho menos.

    Accesorios

    No podemos hablar de la interfaz de usuario sin mencionar también los dispositivos portátiles: dispositivos que usa o incluso inserta dentro de su cuerpo para ayudarlo a interactuar digitalmente con el mundo que lo rodea. Al igual que los asistentes de voz, estos dispositivos desempeñarán un papel de apoyo en la forma en que nos relacionamos con el espacio digital; los usaremos para propósitos específicos en contextos específicos. Sin embargo, dado que escribimos un capítulo completo sobre wearables en nuestro futuro de internet serie, no entraremos en más detalles aquí.

    Aumentando nuestra realidad

    En el futuro, la integración de todas las tecnologías mencionadas anteriormente son la realidad virtual y la realidad aumentada.

    En un nivel básico, la realidad aumentada (AR) es el uso de tecnología para modificar o mejorar digitalmente su percepción del mundo real (piense en los filtros de Snapchat). Esto no debe confundirse con la realidad virtual (VR), donde el mundo real se reemplaza por un mundo simulado. Con AR, veremos el mundo que nos rodea a través de diferentes filtros y capas ricas en información contextual que nos ayudará a navegar mejor por nuestro mundo en tiempo real y (posiblemente) enriquecer nuestra realidad. Exploremos brevemente ambos extremos, comenzando con la realidad virtual.

    Realidad virtual. En un nivel básico, la realidad virtual (VR) es el uso de la tecnología para crear digitalmente una ilusión audiovisual inmersiva y convincente de la realidad. Y a diferencia de AR, que actualmente (2018) sufre una gran variedad de obstáculos tecnológicos y sociales antes de ganar la aceptación del mercado masivo, VR ha existido durante décadas en la cultura popular. Lo hemos visto en una gran variedad de películas y programas de televisión orientados al futuro. Muchos de nosotros incluso hemos probado versiones primitivas de VR en antiguas salas de juegos y conferencias y ferias comerciales orientadas a la tecnología.

    Lo que es diferente esta vez es que la tecnología VR de hoy es más accesible que nunca. Gracias a la miniaturización de varias tecnologías clave (originalmente usadas para fabricar teléfonos inteligentes), el costo de los auriculares VR se ha desplomado hasta un punto en el que empresas poderosas como Facebook, Sony y Google ahora lanzan anualmente auriculares VR asequibles a las masas.

    Esto representa el comienzo de un medio de mercado masivo completamente nuevo, que gradualmente atraerá a miles de desarrolladores de software y hardware. De hecho, a fines de la década de 2020, las aplicaciones y los juegos de realidad virtual generarán más descargas que las aplicaciones móviles tradicionales.

    Educación, capacitación laboral, reuniones de negocios, turismo virtual, juegos y entretenimiento: estas son solo algunas de las muchas aplicaciones que la realidad virtual económica, fácil de usar y realista puede mejorar y mejorará (si no es que interrumpirá por completo). Sin embargo, a diferencia de lo que hemos visto en las novelas y películas de ciencia ficción, el futuro en el que las personas pasan todo el día en mundos de realidad virtual está a décadas de distancia. Dicho esto, lo que nos pasaremos todo el día usando es AR.

    Realidad aumentada. Como se señaló anteriormente, el objetivo de AR es actuar como un filtro digital sobre su percepción del mundo real. Al mirar su entorno, AR puede mejorar o alterar su percepción de su entorno o proporcionar información útil y contextualmente relevante que puede ayudarlo a comprender mejor su entorno. Para darle una mejor idea de cómo se ve esto, vea los videos a continuación:

    El primer video es del líder emergente en AR, Magic Leap:

     

    El siguiente es un cortometraje (6 minutos) de Keiichi Matsuda sobre cómo se verá la realidad aumentada en la década de 2030:

     

    De los videos anteriores, puede imaginar la cantidad casi ilimitada de aplicaciones que la tecnología AR habilitará algún día, y es por esa razón que la mayoría de los jugadores más importantes de la tecnología:Google, Apple, Facebook, Microsoft, Baidu, Intel, y más, ya están invirtiendo fuertemente en la investigación de AR.

    Sobre la base de las interfaces holográficas y de gestos al aire libre descritas anteriormente, AR finalmente eliminará la mayoría de las interfaces de computadora tradicionales con las que los consumidores han crecido hasta ahora. Por ejemplo, ¿por qué tener una computadora de escritorio o portátil cuando puede ponerse un par de anteojos AR y ver una computadora de escritorio o portátil virtual aparecer justo frente a usted? Del mismo modo, sus anteojos AR (y posteriores Lentes de contacto AR) eliminará su teléfono inteligente físico. Ah, y no nos olvidemos de sus televisores. En otras palabras, la mayoría de los grandes dispositivos electrónicos de hoy en día se digitalizarán en forma de aplicación.

    Las empresas que inviertan temprano para controlar los futuros sistemas operativos AR o entornos digitales interrumpirán y tomarán el control de un gran porcentaje del sector electrónico actual. Por otro lado, AR también tendrá una gama de aplicaciones comerciales en sectores como salud, diseño/arquitectura, logística, fabricación, militar y más, aplicaciones que analizamos más adelante en nuestra serie Future of the Internet.

    Y, sin embargo, aquí todavía no es donde termina el futuro de la interfaz de usuario.

    Ingrese a Matrix con la interfaz cerebro-computadora

    Hay otra forma de comunicación que es incluso más intuitiva y natural que el movimiento, el habla y la RA cuando se trata de controlar máquinas: el pensamiento mismo.

    Esta ciencia es un campo de la bioelectrónica llamado interfaz cerebro-computadora (BCI). Implica el uso de un dispositivo de escaneo cerebral o un implante para monitorear sus ondas cerebrales y asociarlas con comandos para controlar cualquier cosa que ejecute una computadora.

    De hecho, es posible que no te hayas dado cuenta, pero los primeros días de BCI ya han comenzado. Los amputados son ahora prueba de extremidades robóticas controlado directamente por la mente, en lugar de a través de sensores conectados al muñón del usuario. Asimismo, las personas con discapacidades graves (como las personas con tetraplejía) ahora utilizando BCI para dirigir sus sillas de ruedas motorizadas y manipular brazos robóticos. Pero ayudar a las personas amputadas y discapacitadas a llevar una vida más independiente no es todo lo que BCI será capaz de hacer. Aquí hay una breve lista de los experimentos que ahora están en marcha:

    Controlando cosas. Los investigadores han demostrado con éxito cómo BCI puede permitir a los usuarios controlar las funciones del hogar (iluminación, cortinas, temperatura), así como una variedad de otros dispositivos y vehículos. Reloj el vídeo de demostración.

    Controlando animales. Un laboratorio probó con éxito un experimento BCI en el que un ser humano pudo hacer un rata de laboratorio mueve su cola utilizando sólo sus pensamientos.

    Cerebro a texto. un hombre paralítico usó un implante cerebral escribir ocho palabras por minuto. Mientras tanto, los equipos de la US y Alemania están desarrollando un sistema que decodifica las ondas cerebrales (pensamientos) en texto. Los experimentos iniciales han resultado exitosos y esperan que esta tecnología no solo pueda ayudar a la persona promedio, sino que también brinde a las personas con discapacidades graves (como el renombrado físico Stephen Hawking) la capacidad de comunicarse con el mundo más fácilmente.

    Cerebro a cerebro. Un equipo internacional de científicos pudo imitar la telepatía haciendo que una persona de la India pensara la palabra "hola", y a través de BCI, esa palabra se convirtió de ondas cerebrales a código binario, luego se envió por correo electrónico a Francia, donde ese código binario se convirtió nuevamente en ondas cerebrales, para ser percibido por la persona receptora . ¡Comunicación cerebro a cerebro, gente!

    Grabación de sueños y recuerdos. Investigadores de Berkeley, California, han logrado un progreso increíble al convertir ondas cerebrales en imágenes. A los sujetos de prueba se les presentó una serie de imágenes mientras estaban conectados a sensores BCI. Esas mismas imágenes fueron luego reconstruidas en una pantalla de computadora. Las imágenes reconstruidas eran súper granuladas, pero con aproximadamente una década de tiempo de desarrollo, esta prueba de concepto algún día nos permitirá deshacernos de nuestra cámara GoPro o incluso grabar nuestros sueños.

    ¿Vamos a convertirnos en magos, dices?

    Al principio, usaremos dispositivos externos para BCI que parecen un casco o una banda para el cabello (2030) que finalmente darán paso a implantes cerebrales (finales de la década de 2040). En última instancia, estos dispositivos BCI conectarán nuestras mentes a la nube digital y luego actuarán como un tercer hemisferio para nuestras mentes, de modo que mientras nuestros hemisferios izquierdo y derecho administran nuestra creatividad y facultades lógicas, este nuevo hemisferio digital alimentado por la nube facilitará las habilidades. donde los humanos a menudo no están a la altura de sus contrapartes de IA, a saber, velocidad, repetición y precisión.

    BCI es clave para el campo emergente de la neurotecnología que tiene como objetivo fusionar nuestras mentes con máquinas para obtener las fortalezas de ambos mundos. Así es, todos, para la década de 2030 y generalizados a fines de la década de 2040, los humanos usarán BCI para mejorar nuestros cerebros, así como para comunicarnos entre nosotros y con animales, controlar computadoras y dispositivos electrónicos, compartir recuerdos y sueños, y navegar por la web.

    Sé lo que estás pensando: Sí, eso se intensificó rápidamente..

    Pero a pesar de lo emocionantes que son todos estos avances en la interfaz de usuario, nunca serán posibles sin avances igualmente emocionantes en el software y el hardware de la computadora. Estos avances son lo que explorará el resto de esta serie Future of Computers.

    Serie El futuro de las computadoras

    Futuro del desarrollo de software: Futuro de las computadoras P2

    La revolución del almacenamiento digital: el futuro de las computadoras P3

    Una ley de Moore que se desvanece para provocar un replanteamiento fundamental de los microchips: el futuro de las computadoras P4

    La computación en la nube se descentraliza: el futuro de las computadoras P5

    ¿Por qué los países compiten para construir las supercomputadoras más grandes? Futuro de las computadoras P6

    Cómo las computadoras cuánticas cambiarán el mundo: el futuro de las computadoras P7     

    Próxima actualización programada para este pronóstico

    2023-02-08

    Referencias de previsión

    Los siguientes enlaces populares e institucionales fueron referenciados para este pronóstico:

    Se hizo referencia a los siguientes enlaces de Quantumrun para este pronóstico: