Gestos, hologramas e upload de mente no estilo matriz

CRÉDITO DE IMAGEM: corrida quântica

Gestos, hologramas e upload de mente no estilo matriz

    Primeiro, foram os cartões perfurados, depois os icônicos mouse e teclado. As ferramentas e sistemas que usamos para interagir com computadores é o que nos permite controlar e construir o mundo ao nosso redor de maneiras inimagináveis ​​para nossos ancestrais. Percorremos um longo caminho para ter certeza, mas quando se trata do campo da interface do usuário (IU ou os meios pelos quais interagimos com os sistemas de computador), ainda não vimos nada.

    Nas duas últimas partes de nossa série O Futuro dos Computadores, exploramos como as inovações vindouras irão remodelar os humildes microchip e unidade de disco irá, por sua vez, lançar revoluções globais nos negócios e na sociedade. Mas essas inovações serão insignificantes em comparação com os avanços da interface do usuário que estão sendo testados em laboratórios de ciências e garagens em todo o mundo.

    Cada vez que a humanidade inventou uma nova forma de comunicação – seja a fala, a palavra escrita, a imprensa, o telefone, a Internet – nossa sociedade coletiva floresceu com novas ideias, novas formas de comunidade e indústrias inteiramente novas. A próxima década verá a próxima evolução, o próximo salto quântico em comunicação e interconectividade... e pode apenas remodelar o que significa ser humano.

    O que é uma boa interface de usuário, afinal?

    A era de cutucar, beliscar e deslizar os computadores para que eles façam o que queríamos começou há uma década. Para muitos, tudo começou com o iPod. Onde antes estávamos acostumados a clicar, digitar e pressionar botões robustos para comunicar nossas vontades às máquinas, o iPod popularizou o conceito de deslizar para a esquerda ou para a direita em um círculo para selecionar a música que você deseja ouvir.

    Os smartphones com tela sensível ao toque também começaram a entrar no mercado nessa época, introduzindo uma variedade de outros prompts de comando táteis, como cutucar (para simular o pressionamento de um botão), beliscar (para aumentar e diminuir o zoom), pressionar, segurar e arrastar (para pular entre programas, geralmente). Esses comandos táteis ganharam força rapidamente entre o público por vários motivos: Eles eram novos. Todos os garotos legais (famosos) estavam fazendo isso. A tecnologia touchscreen tornou-se barata e popular. Mas acima de tudo, os movimentos pareciam naturais, intuitivos.

    É disso que se trata uma boa IU de computador: criar maneiras mais naturais e intuitivas de interagir com software e dispositivos. E esse é o princípio básico que orientará os futuros dispositivos de IU sobre os quais você está prestes a aprender.

    Cutucando, beliscando e deslizando no ar

    A partir de 2015, os smartphones substituíram os telefones celulares padrão em grande parte do mundo desenvolvido. Isso significa que uma grande parte do mundo agora está familiarizada com os vários comandos táteis mencionados acima. Por meio de aplicativos e jogos, os usuários de smartphones aprenderam uma grande variedade de habilidades abstratas para controlar os supercomputadores em seus bolsos.

    São essas habilidades que prepararão os consumidores para a próxima onda de dispositivos — dispositivos que nos permitirão mesclar mais facilmente o mundo digital com nossos ambientes do mundo real. Então, vamos dar uma olhada em algumas das ferramentas que usaremos para navegar em nosso mundo futuro.

    Controle de gestos ao ar livre. Em 2015, ainda estávamos na micro-era do controle por toque. Ainda cutucamos, beliscamos e deslizamos em nossas vidas móveis. Mas esse controle de toque está lentamente dando lugar a uma forma de controle de gestos ao ar livre. Para os jogadores, sua primeira interação com isso pode ter sido jogar jogos hiperativos do Nintendo Wii ou os jogos mais recentes do Xbox Kinect - ambos os consoles usam tecnologia avançada de captura de movimento para combinar os movimentos do jogador com os avatares do jogo.

    Bem, esta tecnologia não está confinada a videogames e filmagem em tela verde; Em breve, entrará no mercado mais amplo de eletrônicos de consumo. Um exemplo impressionante de como isso pode parecer é um empreendimento do Google chamado Project Soli (assista ao seu incrível e curto vídeo de demonstração SUA PARTICIPAÇÃO FAZ A DIFERENÇA). Os desenvolvedores deste projeto usam um radar em miniatura para rastrear os movimentos finos de sua mão e dedos para simular o cutucar, beliscar e deslizar ao ar livre em vez de contra uma tela. Esse é o tipo de tecnologia que ajudará a tornar os wearables mais fáceis de usar e, portanto, mais atraentes para um público mais amplo.

    Interface tridimensional. Levando esse controle de gestos ao ar livre mais adiante em sua progressão natural, em meados da década de 2020, podemos ver a interface tradicional da área de trabalho - o teclado e o mouse confiáveis ​​- lentamente substituídos pela interface de gestos, no mesmo estilo popularizado pelo filme Minority Relatório. Na verdade, John Underkoffler, pesquisador de interface do usuário, consultor científico e inventor das cenas de interface de gestos holográficos do Minority Report, está atualmente trabalhando no versão da vida real— uma tecnologia a que ele se refere como um ambiente operacional espacial de interface homem-máquina.

    Usando essa tecnologia, você um dia se sentará ou ficará em pé na frente de uma tela grande e usará vários gestos de mão para comandar seu computador. Parece muito legal (veja o link acima), mas como você pode imaginar, gestos com as mãos podem ser ótimos para pular canais de TV, apontar/clicar em links ou projetar modelos tridimensionais, mas não funcionarão tão bem ao escrever muito ensaios. É por isso que, à medida que a tecnologia de gestos ao ar livre é gradualmente incluída em mais e mais eletrônicos de consumo, ela provavelmente será acompanhada por recursos de interface do usuário complementares, como comando de voz avançado e tecnologia de rastreamento de íris.

    Sim, o humilde teclado físico ainda pode sobreviver até a década de 2020 … pelo menos até que essas duas próximas inovações o digitalizem totalmente no final dessa década.

    Hologramas hápticos. Os hologramas que todos vimos pessoalmente ou nos filmes tendem a ser projeções de luz 2D ou 3D que mostram objetos ou pessoas pairando no ar. O que todas essas projeções têm em comum é que, se você estendesse a mão para agarrá-las, conseguiria apenas um punhado de ar. Não será assim por muito mais tempo.

    Novas tecnologias (ver exemplos: um e dois) estão sendo desenvolvidos para criar hologramas que você pode tocar (ou pelo menos imitar a sensação do toque, ou seja, haptics). Dependendo da técnica utilizada, seja ondas ultrassônicas ou projeção de plasma, os hologramas hápticos abrirão uma indústria totalmente nova de produtos digitais que podem ser usados ​​no mundo real.

    Pense nisso, em vez de um teclado físico, você pode ter um holográfico que pode lhe dar a sensação física de digitar, onde quer que você esteja em uma sala. Esta tecnologia é o que vai integrar o Interface ao ar livre do Relatório Minoritário e acabe com a era do desktop tradicional.

    Imagine o seguinte: em vez de carregar um laptop volumoso, você poderia um dia carregar um pequeno wafer quadrado (talvez do tamanho de uma caixa de CD) que projetaria uma tela sensível ao toque e um teclado. Dando um passo adiante, imagine um escritório com apenas uma mesa e uma cadeira e, com um simples comando de voz, um escritório inteiro se projeta ao seu redor - uma estação de trabalho holográfica, enfeites de parede, plantas, etc. pode envolver uma visita à loja de aplicativos juntamente com uma visita à Ikea.

    Realidade virtual e aumentada. Semelhante aos hologramas hápticos explicados acima, a realidade virtual e aumentada desempenhará um papel semelhante na IU da década de 2020. Cada um terá seus próprios artigos para explicá-los completamente, mas para o objetivo deste artigo, é útil saber o seguinte: A realidade virtual será amplamente confinada a jogos avançados, simulações de treinamento e visualização abstrata de dados na próxima década.

    Enquanto isso, a realidade aumentada terá um apelo comercial muito mais amplo, pois sobreporá informações digitais ao mundo real; se você já viu o vídeo promocional do Google Glass (vídeo), então você entenderá como essa tecnologia pode ser útil um dia, quando ela amadurecer em meados da década de 2020.

    seu assistente virtual

    Cobrimos as formas de toque e movimento da interface do usuário definidas para assumir nossos futuros computadores e eletrônicos. Agora é hora de explorar outra forma de IU que pode parecer ainda mais natural e intuitiva: a fala.

    Aqueles que possuem os modelos mais recentes de smartphones provavelmente já experimentaram o reconhecimento de fala, seja na forma de Siri do iPhone, Google Now do Android ou Windows Cortana. Esses serviços são projetados para permitir que você interaja com seu telefone e acesse o banco de conhecimento da web simplesmente dizendo verbalmente a esses 'assistentes virtuais' o que você deseja.

    É um feito incrível de engenharia, mas também não é perfeito. Qualquer pessoa que já brincou com esses serviços sabe que muitas vezes interpretam mal o seu discurso (especialmente para aquelas pessoas com sotaque forte) e ocasionalmente fornecem uma resposta que você não estava procurando.

    Felizmente, essas falhas não durarão muito mais tempo. Google anunciou em maio de 2015 que sua tecnologia de reconhecimento de fala agora tem apenas uma taxa de erro de oito por cento e está diminuindo. Quando você combina essa queda na taxa de erros com as enormes inovações que acontecem com microchips e computação em nuvem, podemos esperar que os assistentes virtuais se tornem assustadoramente precisos até 2020.

    Assista esse video para obter um exemplo do que é possível e do que estará disponível ao público em poucos anos.

    Pode ser chocante perceber, mas os assistentes virtuais atualmente sendo projetados não apenas entenderão seu discurso perfeitamente, mas também entenderão o contexto por trás das perguntas que você faz; eles reconhecerão os sinais indiretos emitidos pelo seu tom de voz; eles até se envolverão em longas conversas com você, ELA-estilo.

    No geral, os assistentes virtuais baseados em reconhecimento de voz se tornarão a principal maneira de acessar a Web para nossas necessidades informativas do dia-a-dia. Enquanto isso, as formas físicas da interface do usuário exploradas anteriormente provavelmente dominarão nossas atividades digitais focadas no lazer e no trabalho. Mas este não é o fim da nossa jornada de interface do usuário, longe disso.

    Entre na Matrix com a Interface Cérebro-Computador

    Quando você pensa que já falamos de tudo, existe ainda outra forma de comunicação que é ainda mais intuitiva e natural do que o toque, o movimento e a fala quando se trata de controlar máquinas: o próprio pensamento.

    Essa ciência é um campo da bioeletrônica chamado Interface Cérebro-Computador (BCI). Envolve o uso de um implante ou um dispositivo de escaneamento cerebral para monitorar suas ondas cerebrais e associá-las a comandos para controlar qualquer coisa que seja executada por um computador.

    Na verdade, você pode não ter percebido, mas os primeiros dias do BCI já começaram. Os amputados agora testando membros robóticos controlado diretamente pela mente, em vez de através de sensores presos ao coto do usuário. Da mesma forma, pessoas com deficiências graves (como tetraplégicos) agora estão usando o BCI para dirigir suas cadeiras de rodas motorizadas e manipular braços robóticos. Mas ajudar amputados e pessoas com deficiência a levar uma vida mais independente não é a extensão do que a BCI será capaz. Aqui está uma pequena lista dos experimentos em andamento:

    Controlando as coisas. Os pesquisadores demonstraram com sucesso como o BCI pode permitir que os usuários controlem as funções domésticas (iluminação, cortinas, temperatura), bem como uma variedade de outros dispositivos e veículos. Ver vídeo de demonstração.

    Controlar animais. Um laboratório testou com sucesso um experimento BCI onde um humano foi capaz de fazer uma rato de laboratório mover sua cauda usando apenas seus pensamentos.

    Cérebro para texto. Equipes no US e Alemanha estão desenvolvendo um sistema que decodifica ondas cerebrais (pensamentos) em texto. Os experimentos iniciais foram bem-sucedidos e eles esperam que essa tecnologia não apenas ajude a pessoa comum, mas também forneça às pessoas com deficiências graves (como o renomado físico Stephen Hawking) a capacidade de se comunicar com o mundo com mais facilidade.

    Cérebro a cérebro. Uma equipe internacional de cientistas conseguiu imitar telepatia fazendo com que uma pessoa da Índia pensasse na palavra “olá”, e através do BCI, essa palavra foi convertida de ondas cerebrais em código binário, depois enviada por e-mail para a França, onde esse código binário foi convertido novamente em ondas cerebrais, para ser percebido pela pessoa receptora . Comunicação cérebro a cérebro, pessoal!

    Registrando sonhos e memórias. Pesquisadores em Berkeley, Califórnia, fizeram progressos inacreditáveis ​​convertendo ondas cerebrais em imagens. Os assuntos de teste foram apresentados a uma série de imagens enquanto conectados a sensores BCI. Essas mesmas imagens foram então reconstruídas em uma tela de computador. As imagens reconstruídas eram super granuladas, mas com cerca de uma década de tempo de desenvolvimento, esta prova de conceito um dia nos permitirá abandonar nossa câmera GoPro ou até mesmo gravar nossos sonhos.

    Nós vamos nos tornar magos, você diz?

    É isso mesmo pessoal, na década de 2030 e no final da década de 2040, os humanos começarão a se comunicar uns com os outros e com os animais, controlar computadores e eletrônicos, compartilhar memórias e sonhos e navegar na web, tudo usando nossas mentes.

    Eu sei o que você está pensando: Sim, isso aumentou rapidamente. Mas o que isso tudo significa? Como essas tecnologias de interface do usuário remodelarão nossa sociedade compartilhada? Bem, acho que você terá que ler a parte final de nossa série O Futuro dos Computadores para descobrir.

    SÉRIE LINKS DO FUTURO DOS COMPUTADORES

    O apetite lento da lei de Moore por bits, bytes e cúbitos: o futuro dos computadores P1

    A revolução do armazenamento digital: o futuro dos computadores P2

    Sociedade e a geração híbrida: o futuro dos computadores P4

    Próxima atualização programada para esta previsão

    2023-01-26

    Referências de previsão

    Os seguintes links populares e institucionais foram referenciados para esta previsão:

    Os seguintes links do Quantumrun foram referenciados para esta previsão: