Diga adeus ao seu mouse e teclado, novas interfaces de usuário para redefinir a humanidade: Futuro dos computadores P1

CRÉDITO DE IMAGEM: corrida quântica

Diga adeus ao seu mouse e teclado, novas interfaces de usuário para redefinir a humanidade: Futuro dos computadores P1

    Primeiro, eram cartões perfurados; depois foi o icônico mouse e teclado. As ferramentas e sistemas que usamos para interagir com computadores são o que nos permite controlar e construir o mundo ao nosso redor de maneiras inimagináveis ​​para nossos ancestrais. Percorremos um longo caminho para ter certeza, mas quando se trata do campo da interface do usuário (UI, o meio pelo qual interagimos com os sistemas de computador), ainda não vimos nada.

    Alguns podem dizer que é estranho começar nossa série Future of Computers com um capítulo sobre UI, mas é como usamos computadores que dará sentido às inovações que exploraremos no restante desta série.

    Toda vez que a humanidade inventou uma nova forma de comunicação – seja a fala, a palavra escrita, a imprensa, o telefone, a Internet – nossa sociedade coletiva floresceu com novas ideias, novas formas de comunidade e indústrias inteiramente novas. A próxima década verá a próxima evolução, o próximo salto quântico em comunicação e interconectividade, inteiramente intermediado por uma série de futuras interfaces de computador… e pode apenas remodelar o que significa ser humano.

    O que é uma interface de usuário 'boa', afinal?

    A era de cutucar, beliscar e passar o dedo nos computadores para fazê-los fazer o que queríamos começou há mais de uma década. Para muitos, começou com o iPod. Onde antes estávamos acostumados a clicar, digitar e pressionar botões robustos para comunicar nossas vontades às máquinas, o iPod popularizou o conceito de deslizar para a esquerda ou para a direita em um círculo para selecionar a música que você queria ouvir.

    Os smartphones com tela sensível ao toque entraram no mercado logo depois disso, introduzindo uma série de outros comandos táteis, como o poke (para simular o pressionamento de um botão), o pinch (para aumentar e diminuir o zoom), pressionar, segurar e arrastar. Esses comandos táteis ganharam força rapidamente entre o público por vários motivos: eram novos. Todas as crianças legais (famosas) estavam fazendo isso. A tecnologia touchscreen tornou-se barata e popular. Mas acima de tudo, os movimentos pareciam intuitivos, naturais.

    É disso que se trata uma boa interface de usuário de computador: criar maneiras mais naturais de se envolver com software e dispositivos. E esse é o princípio central que guiará os futuros dispositivos de interface do usuário sobre os quais você está prestes a aprender.

    Cutucando, beliscando e deslizando no ar

    A partir de 2018, os smartphones substituíram os telefones celulares padrão em grande parte do mundo desenvolvido. Isso significa que uma grande parte do mundo agora está familiarizada com os vários comandos táteis mencionados acima. Por meio de aplicativos e jogos, os usuários de smartphones aprenderam uma grande variedade de habilidades abstratas para controlar os supercomputadores relativos que estão em seus bolsos. 

    São essas habilidades que prepararão os consumidores para a próxima onda de dispositivos – dispositivos que nos permitirão mesclar mais facilmente o mundo digital com nossos ambientes do mundo real. Então, vamos dar uma olhada em algumas das ferramentas que usaremos para navegar em nosso mundo futuro.

    Controle de gestos ao ar livre. A partir de 2018, ainda estamos na era micro do controle de toque. Nós ainda cutucamos, beliscamos e deslizamos nosso caminho através de nossas vidas móveis. Mas esse controle de toque está lentamente dando lugar a uma forma de controle de gestos ao ar livre. Para os jogadores por aí, sua primeira interação com isso pode ter sido jogando jogos superativos do Nintendo Wii ou os jogos do Xbox Kinect - ambos os consoles usam tecnologia avançada de captura de movimento para combinar os movimentos dos jogadores com os avatares do jogo. 

    Bem, essa tecnologia não está confinada a videogames e cinema em tela verde, em breve entrará no mercado mais amplo de eletrônicos de consumo. Um exemplo impressionante de como isso pode ser é um empreendimento do Google chamado Project Soli (veja seu incrível e curto vídeo de demonstração SUA PARTICIPAÇÃO FAZ A DIFERENÇA). Os desenvolvedores deste projeto usam um radar em miniatura para rastrear os movimentos finos de sua mão e dedos para simular o cutucar, beliscar e deslizar ao ar livre em vez de contra uma tela. Esse é o tipo de tecnologia que ajudará a tornar os wearables mais fáceis de usar e, portanto, mais atraentes para um público mais amplo.

    Interface tridimensional. Levando esse controle de gestos ao ar livre mais adiante em sua progressão natural, em meados da década de 2020, podemos ver a interface tradicional da área de trabalho - o teclado e o mouse confiáveis ​​- lentamente substituídos pela interface de gestos, no mesmo estilo popularizado pelo filme Minority Relatório. Na verdade, John Underkoffler, pesquisador de interface do usuário, consultor científico e inventor das cenas de interface de gestos holográficos do Minority Report, está atualmente trabalhando no versão da vida real— uma tecnologia que ele chama de ambiente operacional espacial de interface homem-máquina. (Ele provavelmente precisará inventar um acrônimo útil para isso.)

    Usando essa tecnologia, você um dia se sentará ou ficará em pé na frente de uma tela grande e usará vários gestos de mão para comandar seu computador. Parece muito legal (veja o link acima), mas como você pode imaginar, gestos com as mãos podem ser ótimos para pular canais de TV, apontar/clicar em links ou projetar modelos tridimensionais, mas não funcionarão tão bem ao escrever muito ensaios. É por isso que, à medida que a tecnologia de gestos ao ar livre é gradualmente incluída em mais e mais eletrônicos de consumo, ela provavelmente será acompanhada por recursos de interface do usuário complementares, como comando de voz avançado e tecnologia de rastreamento de íris. 

    Sim, o teclado físico humilde ainda pode sobreviver até a década de 2020.

    Hologramas hápticos. Os hologramas que todos vimos pessoalmente ou nos filmes tendem a ser projeções de luz 2D ou 3D que mostram objetos ou pessoas pairando no ar. O que todas essas projeções têm em comum é que, se você estendesse a mão para pegá-las, obteria apenas um punhado de ar. Isso não será o caso em meados da década de 2020.

    Novas tecnologias (ver exemplos: um e dois) estão sendo desenvolvidos para criar hologramas que você pode tocar (ou pelo menos imitar a sensação de toque, ou seja, háptica). Dependendo da técnica usada, seja ondas ultrassônicas ou projeção de plasma, os hologramas hápticos abrirão uma indústria inteiramente nova de produtos digitais que podemos usar no mundo real.

    Pense nisso, em vez de um teclado físico, você pode ter um holográfico que pode lhe dar a sensação física de digitar, onde quer que você esteja em uma sala. Esta tecnologia é o que vai integrar o Interface ao ar livre do Relatório Minoritário e possivelmente acabar com a era da área de trabalho tradicional.

    Imagine isso: em vez de carregar um laptop volumoso, você poderia um dia carregar um pequeno wafer quadrado (talvez do tamanho de um disco rígido externo fino) que projetaria uma tela sensível ao toque e um holograma de teclado. Dando um passo adiante, imagine um escritório com apenas uma mesa e uma cadeira e, com um simples comando de voz, um escritório inteiro se projeta ao seu redor - uma estação de trabalho holográfica, decorações de parede, plantas etc. Compras de móveis ou decoração no futuro pode envolver uma visita à loja de aplicativos junto com uma visita à Ikea.

    Falando com seu assistente virtual

    Enquanto estamos reimaginando lentamente a interface do usuário por toque, está surgindo uma forma nova e complementar de interface do usuário que pode parecer ainda mais intuitiva para a pessoa comum: a fala.

    A Amazon causou um impacto cultural com o lançamento de seu sistema de assistente pessoal artificialmente inteligente (AI), Alexa, e os vários produtos de assistente doméstico ativados por voz lançados ao lado dele. O Google, o suposto líder em IA, correu para seguir o exemplo com seu próprio conjunto de produtos de assistente doméstico. E juntos, a competição multibilionária combinada entre esses dois gigantes da tecnologia levou a uma aceitação rápida e generalizada de produtos e assistentes de IA ativados por voz entre o mercado consumidor em geral. E embora ainda seja cedo para essa tecnologia, esse surto de crescimento inicial não deve ser subestimado.

    Quer você prefira o Alexa da Amazon, o Assistente do Google, o Siri do iPhone ou a Cortana do Windows, esses serviços são projetados para permitir que você interaja com seu telefone ou dispositivo inteligente e acesse o banco de conhecimento da Web com comandos verbais simples, informando a esses 'assistentes virtuais' o que você quer.

    É um feito incrível de engenharia. E mesmo que não seja perfeita, a tecnologia está melhorando rapidamente; por exemplo, Google anunciou em maio de 2015, que sua tecnologia de reconhecimento de fala agora tem uma taxa de erro de apenas 2020% e está diminuindo. Quando você combina essa taxa de erro em queda com as grandes inovações que acontecem com microchips e computação em nuvem (descritos nos próximos capítulos da série), podemos esperar que os assistentes virtuais se tornem agradavelmente precisos até XNUMX.

    Melhor ainda, os assistentes virtuais atualmente sendo projetados não apenas entenderão sua fala perfeitamente, mas também entenderão o contexto por trás das perguntas que você fizer; eles reconhecerão os sinais indiretos emitidos pelo seu tom de voz; eles até se envolverão em longas conversas com você, ELA-estilo.

    No geral, os assistentes virtuais baseados em reconhecimento de voz se tornarão a principal maneira de acessar a Web para nossas necessidades informativas do dia-a-dia. Enquanto isso, as formas físicas da interface do usuário exploradas anteriormente provavelmente dominarão nossas atividades digitais focadas no lazer e no trabalho. Mas este não é o fim da nossa jornada de interface do usuário, longe disso.

    smartwatch

    Não podemos discutir a interface do usuário sem mencionar também os wearables – dispositivos que você usa ou mesmo insere dentro do seu corpo para ajudá-lo a interagir digitalmente com o mundo ao seu redor. Assim como os assistentes de voz, esses dispositivos desempenharão um papel de apoio na forma como nos relacionamos com o espaço digital; vamos usá-los para fins específicos em contextos específicos. No entanto, como escrevemos um capítulo inteiro sobre wearables na nossa Futuro da Internet série, não entraremos em mais detalhes aqui.

    Aumentando nossa realidade

    Avançando, integrando todas as tecnologias mencionadas acima são a realidade virtual e a realidade aumentada.

    Em um nível básico, a realidade aumentada (AR) é o uso da tecnologia para modificar digitalmente ou aprimorar sua percepção do mundo real (pense nos filtros do Snapchat). Isso não deve ser confundido com a realidade virtual (VR), onde o mundo real é substituído por um mundo simulado. Com AR, veremos o mundo ao nosso redor através de diferentes filtros e camadas ricas em informações contextuais que nos ajudarão a navegar melhor em nosso mundo em tempo real e (sem dúvida) enriquecer nossa realidade. Vamos explorar brevemente os dois extremos, começando com VR.

    Realidade virtual. Em um nível básico, a realidade virtual (VR) é o uso da tecnologia para criar digitalmente uma ilusão audiovisual imersiva e convincente da realidade. E, ao contrário da RA, que atualmente (2018) sofre de uma grande variedade de obstáculos tecnológicos e sociais antes de ganhar aceitação no mercado de massa, a RV existe há décadas na cultura popular. Já vimos isso em uma grande variedade de filmes e programas de televisão voltados para o futuro. Muitos de nós já tentaram versões primitivas de VR em antigos fliperamas e conferências e feiras de negócios voltados para tecnologia.

    O que é diferente desta vez é que a tecnologia VR de hoje está mais acessível do que nunca. Graças à miniaturização de várias tecnologias-chave (originalmente usadas para fabricar smartphones), o custo dos fones de ouvido VR atingiu um ponto em que empresas poderosas como Facebook, Sony e Google agora estão lançando anualmente fones de ouvido VR acessíveis para as massas.

    Isso representa o início de um meio de mercado de massa inteiramente novo, que gradualmente atrairá milhares de desenvolvedores de software e hardware. De fato, no final da década de 2020, os aplicativos e jogos de RV gerarão mais downloads do que os aplicativos móveis tradicionais.

    Educação, treinamento profissional, reuniões de negócios, turismo virtual, jogos e entretenimento – esses são apenas alguns dos muitos aplicativos baratos, fáceis de usar e realistas que a RV pode melhorar (se não for totalmente disruptivo). No entanto, ao contrário do que vimos em romances e filmes de ficção científica, o futuro em que as pessoas passam o dia todo em mundos de realidade virtual está a décadas de distância. Dito isso, o que vamos passar o dia todo usando é AR.

    Realidade aumentada. Como observado anteriormente, o objetivo do AR é atuar como um filtro digital em cima de sua percepção do mundo real. Ao olhar para o seu entorno, a RA pode melhorar ou alterar sua percepção de seu ambiente ou fornecer informações úteis e contextualmente relevantes que podem ajudá-lo a entender melhor seu ambiente. Para ter uma ideia melhor de como isso pode parecer, confira os vídeos abaixo:

    O primeiro vídeo é do líder emergente em AR, Magic Leap:

     

    A seguir, um curta-metragem (6 min) de Keiichi Matsuda sobre como o AR pode parecer na década de 2030:

     

    A partir dos vídeos acima, você pode imaginar o número quase ilimitado de aplicativos que a tecnologia AR um dia permitirá, e é por esse motivo que a maioria dos maiores players da tecnologia—Google, Apple, Facebook, Microsoft, Baidu, Intel, e muito mais - já estão investindo pesadamente em pesquisa de RA.

    Com base nas interfaces de gestos holográficos e ao ar livre descritas anteriormente, a RA acabará por acabar com a maioria das interfaces de computador tradicionais com as quais os consumidores cresceram até agora. Por exemplo, por que possuir um computador desktop ou laptop quando você pode colocar um par de óculos AR e ver um desktop ou laptop virtual aparecer bem na sua frente. Da mesma forma, seus óculos AR (e mais tarde Lentes de contato AR) vai acabar com o seu smartphone físico. Ah, e não vamos esquecer suas TVs. Em outras palavras, a maioria dos grandes eletrônicos de hoje será digitalizada na forma de um aplicativo.

    As empresas que investem cedo para controlar os futuros sistemas operacionais de RA ou ambientes digitais irão efetivamente interromper e assumir o controle de uma grande porcentagem do setor eletrônico de hoje. Além disso, o AR também terá uma variedade de aplicativos de negócios em setores como saúde, design/arquitetura, logística, manufatura, militar e muito mais, aplicativos que discutiremos mais adiante em nossa série O Futuro da Internet.

    E, no entanto, isso ainda não é onde o futuro da interface do usuário termina.

    Entre na Matrix com Interface Cérebro-Computador

    Há ainda outra forma de comunicação que é ainda mais intuitiva e natural do que movimento, fala e RA quando se trata de controlar máquinas: o próprio pensamento.

    Esta ciência é um campo de bioeletrônica chamado Brain-Computer Interface (BCI). Envolve o uso de um dispositivo de escaneamento cerebral ou um implante para monitorar suas ondas cerebrais e associá-las a comandos para controlar qualquer coisa que seja executada por um computador.

    Na verdade, você pode não ter percebido, mas os primeiros dias do BCI já começaram. Os amputados agora testando membros robóticos controlado diretamente pela mente, em vez de através de sensores presos ao coto do usuário. Da mesma forma, pessoas com deficiências graves (como pessoas com tetraplegia) agora estão usando o BCI para dirigir suas cadeiras de rodas motorizadas e manipular braços robóticos. Mas ajudar amputados e pessoas com deficiência a levar uma vida mais independente não é a extensão do que a BCI será capaz. Aqui está uma pequena lista dos experimentos em andamento:

    Controlando as coisas. Os pesquisadores demonstraram com sucesso como o BCI pode permitir que os usuários controlem as funções domésticas (iluminação, cortinas, temperatura), bem como uma variedade de outros dispositivos e veículos. Ver o vídeo de demonstração.

    Controlar animais. Um laboratório testou com sucesso um experimento BCI onde um humano foi capaz de fazer uma rato de laboratório mover sua cauda usando apenas seus pensamentos.

    Cérebro para texto. Um homem paralisado usou um implante cerebral para digitar oito palavras por minuto. Enquanto isso, as equipes do US e Alemanha estão desenvolvendo um sistema que decodifica ondas cerebrais (pensamentos) em texto. Os experimentos iniciais provaram ser bem-sucedidos e eles esperam que essa tecnologia possa não apenas ajudar as pessoas comuns, mas também fornecer às pessoas com deficiências graves (como o renomado físico Stephen Hawking) a capacidade de se comunicar com o mundo mais facilmente.

    Cérebro a cérebro. Uma equipe internacional de cientistas conseguiu imitar telepatia fazendo com que uma pessoa da Índia pensasse na palavra “olá”, e através do BCI, essa palavra foi convertida de ondas cerebrais em código binário, depois enviada por e-mail para a França, onde esse código binário foi convertido novamente em ondas cerebrais, para ser percebido pela pessoa receptora . Comunicação cérebro a cérebro, pessoal!

    Gravando sonhos e memórias. Pesquisadores de Berkeley, Califórnia, fizeram progressos inacreditáveis ​​convertendo ondas cerebrais em imagens. Os sujeitos de teste foram apresentados a uma série de imagens enquanto conectados a sensores BCI. Essas mesmas imagens foram então reconstruídas em uma tela de computador. As imagens reconstruídas eram super granuladas, mas com cerca de uma década de tempo de desenvolvimento, essa prova de conceito um dia nos permitirá abandonar nossa câmera GoPro ou até gravar nossos sonhos.

    Nós vamos nos tornar magos, você diz?

    A princípio, usaremos dispositivos externos para BCI que se parecem com um capacete ou faixa de cabelo (anos 2030) que eventualmente darão lugar a implantes cerebrais (final dos anos 2040). Em última análise, esses dispositivos BCI conectarão nossas mentes à nuvem digital e, posteriormente, atuarão como um terceiro hemisfério para nossas mentes - portanto, enquanto nossos hemisférios esquerdo e direito gerenciam nossas faculdades de criatividade e lógica, esse novo hemisfério digital alimentado pela nuvem facilitará as habilidades onde os humanos geralmente ficam aquém de suas contrapartes de IA, ou seja, velocidade, repetição e precisão.

    A BCI é a chave para o campo emergente da neurotecnologia que visa fundir nossas mentes com máquinas para obter os pontos fortes de ambos os mundos. É isso mesmo, na década de 2030 e mainstream no final da década de 2040, os humanos usarão o BCI para atualizar nossos cérebros, bem como para se comunicar uns com os outros e com animais, controlar computadores e eletrônicos, compartilhar memórias e sonhos e navegar na web.

    Eu sei o que você está pensando: Sim, isso aumentou rapidamente.

    Mas, por mais empolgantes que sejam todos esses avanços na interface do usuário, eles nunca serão possíveis sem avanços igualmente empolgantes em software e hardware de computador. Esses avanços são o que o restante desta série Future of Computers irá explorar.

    Série Futuro dos Computadores

    Futuro do desenvolvimento de software: Futuro dos computadores P2

    A revolução do armazenamento digital: o futuro dos computadores P3

    Uma Lei de Moore em desvanecimento para desencadear uma repensação fundamental dos microchips: Futuro dos Computadores P4

    A computação em nuvem torna-se descentralizada: Futuro dos Computadores P5

    Por que os países estão competindo para construir os maiores supercomputadores? Futuro dos Computadores P6

    Como os computadores quânticos mudarão o mundo: Futuro dos Computadores P7     

    Próxima atualização programada para esta previsão

    2023-02-08

    Referências de previsão

    Os seguintes links populares e institucionais foram referenciados para esta previsão:

    Os seguintes links do Quantumrun foram referenciados para esta previsão: