ジェスチャー、ホログラム、マトリックス スタイルのマインド アップロード

画像クレジット: クォンタムラン

ジェスチャー、ホログラム、マトリックス スタイルのマインド アップロード

    最初はパンチカードで、次に象徴的なマウスとキーボードでした。 私たちがコンピューターを操作するために使用するツールやシステムは、私たちの先祖には想像もできなかった方法で、私たちの周りの世界を制御し、構築することを可能にします。 確かに長い道のりを歩んできましたが、ユーザー インターフェイス (UI、またはコンピューター システムとやり取りする手段) の分野に関しては、まだ何も見ていません。

    コンピューターの未来シリーズの最後の XNUMX 回の記事では、今後のイノベーションがどのように謙虚な姿を変えていくのかを探りました。 マイクロチップ & ディスクドライブ ひいては、ビジネスと社会に世界的な革命を起こすでしょう。 しかし、これらのイノベーションは、現在世界中の科学研究所やガレージでテストされている UI のブレークスルーと比較すると見劣りします。

    人類が新しい形のコミュニケーションを発明するたびに、それが音声、文字、印刷機、電話、インターネットなどであり、私たちの集団社会は新しいアイデア、新しい形のコミュニティ、そしてまったく新しい産業で開花しました。 次の XNUMX 年は、コミュニケーションと相互接続性における次の進化、次の飛躍的な飛躍を目にするでしょう。

    とにかく、良いユーザーインターフェイスとは何ですか?

    コンピューターをつついたり、つまんだり、スワイプしたりして、私たちが望むことをコンピューターに実行させる時代は、XNUMX 年前に始まりました。 多くの人にとって、それは iPod から始まりました。 頑丈なボタンをクリック、タイピング、押し下げて意志をマシンに伝えることに慣れていた場所で、iPod は円を左右にスワイプして聴きたい音楽を選択するという概念を普及させました。

    タッチスクリーンのスマートフォンもその頃に市場に参入し始め、ポケ(ボタンを押すことをシミュレートする)、ピンチ(ズームインおよびズームアウトする)、プレス、ホールド、ドラッグ(スキップする)など、他のさまざまな触覚コマンドプロンプトが導入されました。通常はプログラム間)。 これらの触覚コマンドは、多くの理由で一般の人々の間で急速に注目を集めました。それらは新しいものでした。 クールな(有名な)子供たちはみんなやっていた。 タッチスクリーン技術は安価で主流になりました。 しかし何よりも、動きは自然で直感的でした。

    それが優れたコンピューター UI のすべてです。ソフトウェアやデバイスを操作するための、より自然で直感的な方法を構築することです。 そして、それは、あなたが学ぼうとしている将来の UI デバイスを導く中核となる原則です。

    空を突く、つまむ、スワイプする

    2015 年現在、スマートフォンは先進国の多くで標準の携帯電話に取って代わりました。 これは、世界の大部分が、上記のさまざまな触覚コマンドに精通していることを意味します。 スマートフォンのユーザーは、アプリやゲームを通じて、ポケットに入っているスーパーコンピューターを制御するためのさまざまな抽象的なスキルを習得しています。

    これらのスキルによって、消費者は次の波のデバイス、つまりデジタル世界と現実世界の環境をより簡単に融合できるデバイスに備えることができます。 それでは、未来の世界をナビゲートするために使用するいくつかのツールを見てみましょう。

    オープンエアのジェスチャー コントロール。 2015 年現在、私たちはまだタッチ コントロールのマイクロエイジにいます。 私たちは今でも、モバイル ライフを突き刺したり、つまんだり、スワイプしたりしています。 しかし、そのタッチ コントロールは、屋外でのジェスチャー コントロールの形に徐々に取って代わられています。 ゲーマーにとって、これとの最初のやり取りは、過度にアクティブな Nintendo Wii ゲームまたは最新の Xbox Kinect ゲームをプレイすることだったかもしれません。どちらのコンソールも高度なモーション キャプチャ テクノロジーを使用して、プレイヤーの動きをゲーム アバターと一致させます。

    この技術は、ビデオゲームやグリーン スクリーンの映画製作に限定されたものではありません。 間もなく、より広範な家電市場に参入します。 これがどのように見えるかを示す顕著な例の XNUMX つは、Project Soli という名前の Google ベンチャーです (その驚くべき短いデモ ビデオをご覧ください)。 こちら)。 このプロジェクトの開発者は、ミニチュア レーダーを使用して手と指の細かい動きを追跡し、画面ではなく屋外で突く、つまむ、スワイプする動作をシミュレートします。 これは、ウェアラブルを使いやすくし、より多くの視聴者にとってより魅力的なものにするのに役立つ技術です。

    三次元インターフェース. 2020 年代半ばまでに、この屋外でのジェスチャー コントロールを自然な流れに沿ってさらに進めると、従来のデスクトップ インターフェース (信頼できるキーボードとマウス) が、映画「マイノリティ」で普及したのと同じスタイルのジェスチャー インターフェースにゆっくりと置き換えられる可能性があります。報告。 実際、UI 研究者、科学顧問、およびマイノリティ レポートのホログラフィック ジェスチャー インターフェイス シーンの発明者である John Underkoffler は、現在、次の作業に取り組んでいます。 実生活版—彼がヒューマン・マシン・インターフェースの空間操作環境と呼んでいるテクノロジー。

    このテクノロジを使用すると、大きなディスプレイの前に座ったり立ったりして、さまざまな手のジェスチャーを使用してコンピューターに命令するようになります。 とてもクールに見えますが (上記のリンクを参照)、テレビ チャンネルをスキップしたり、リンクをポイント/クリックしたり、XNUMX 次元モデルをデザインしたりするのに手のジェスチャーが適しているかもしれませんが、長い文章を書くときはうまく機能しません。エッセイ。 そのため、オープンエア ジェスチャ テクノロジが次第に多くの家電製品に組み込まれるにつれて、高度な音声コマンドや虹彩追跡テクノロジなどの補完的な UI 機能が追加される可能性があります。

    はい、謙虚な物理キーボードは 2020 年代まで存続する可能性があります。

    触覚ホログラム。 私たちが実際に見たり映画で見たりしたホログラムは、2D または 3D の光の投影である傾向があり、物体や人が空中に浮かんでいる様子を示しています。 これらのプロジェクションに共通しているのは、手を伸ばしてつかむと、ほんの一握りの空気しか得られないということです。 そんなことはもうしばらくないだろう。

    新しいテクノロジー (例を参照: XNUMXつ & 2) は、触ることができる (または少なくとも触覚を模倣する) ホログラムを作成するために開発されています。 超音波であれプラズマ投影であれ、使用される技術に応じて、触覚ホログラムは、現実の世界で使用できるデジタル製品のまったく新しい産業を切り開きます。

    考えてみてください。物理的なキーボードの代わりに、部屋のどこにいてもタイピングの物理的な感覚を味わえるホログラフィック キーボードを使用できます。 この技術は、 マイノリティ・レポートの野外インターフェース 従来のデスクトップの時代に終止符を打ちます。

    これを想像してみてください: かさばるラップトップを持ち歩く代わりに、いつの日か、タッチ可能なディスプレイ画面とキーボードを投影する小さな正方形のウエハース (おそらく CD ケースのサイズ) を持ち運ぶことができるようになるでしょう。 さらに一歩進んで、机と椅子だけのオフィスを想像してみてください。次に、簡単な音声コマンドで、ホログラフィック ワークステーション、壁の装飾、植物など、オフィス全体があなたの周りに投影されます。将来、家具や装飾品を購入するイケアへの訪問とともにアプリストアへの訪問が含まれる場合があります。

    仮想現実および拡張現実。 上で説明した触覚ホログラムと同様に、仮想現実と拡張現実は、2020 年代の UI で同様の役割を果たすでしょう。 それぞれに完全に説明する独自の記事がありますが、この記事の目的のために、次のことを知っておくと役に立ちます: 仮想現実は、今後 XNUMX 年間、高度なゲーム、トレーニング シミュレーション、および抽象的なデータの視覚化に大きく限定されるでしょう。

    一方、拡張現実は、現実世界にデジタル情報を重ねることで、より幅広い商業的魅力を持つようになります。 Google Glass のプロモーション ビデオ (ビデオ)、このテクノロジが 2020 年代半ばまでに成熟すると、いつの日か有用になる可能性があることを理解できます。

    あなたの仮想アシスタント

    未来のコンピューターと電子機器を引き継ぐ UI セットのタッチと動きの形式について説明しました。 今度は、より自然で直感的に感じられる UI の別の形式である音声を探ってみましょう。

    最新のスマートフォン モデルを所有している人は、iPhone の Siri、Android の Google Now、Windows の Cortana など、音声認識を既に経験している可能性が高いです。 これらのサービスは、これらの「仮想アシスタント」に必要なことを口頭で伝えるだけで、携帯電話とやり取りしてウェブのナレッジバンクにアクセスできるように設計されています.

    これはエンジニアリングの驚くべき偉業ですが、完全ではありません。 これらのサービスをいじったことのある人なら誰でも、あなたのスピーチを誤解することが多く (特に訛りの強い人の場合)、あなたが求めていない答えを提供してくれることがあることを知っています。

    幸いなことに、これらの失敗はそれほど長くは続きません。 グーグル 発表の 2015 年 2020 月、同社の音声認識技術のエラー率は現在 XNUMX% に過ぎず、縮小していることが明らかになりました。 このエラー率の低下と、マイクロチップやクラウド コンピューティングで起こっている大規模なイノベーションを組み合わせると、仮想アシスタントは XNUMX 年までに驚くほど正確になると期待できます。

    このビデオを見て 何が可能で、何が数年以内に公開されるかの例です。

    驚くかもしれませんが、現在設計されている仮想アシスタントは、あなたのスピーチを完全に理解するだけでなく、あなたが尋ねる質問の背後にある文脈も理解します。 彼らはあなたの声のトーンによって発せられる間接的な信号を認識します。 彼らはあなたと長文の会話をすることさえあります。 彼女-スタイル。

    全体として、音声認識ベースの仮想アシスタントは、日々の情報ニーズのために Web にアクセスする主要な方法になります。 一方、以前に調査した UI の物理的な形態は、余暇や仕事に焦点を当てたデジタル活動を支配する可能性があります。 しかし、これで私たちの UI の旅は終わりではありません。

    ブレイン コンピューター インターフェイスでマトリックスに入る

    すべてを網羅したと思ったとき、マシンの制御に関しては、タッチ、動き、音声よりもさらに直感的で自然なコミュニケーションの別の形式があります。それは、思考そのものです。

    この科学は、Brain-Computer Interface (BCI) と呼ばれるバイオエレクトロニクス分野です。 これには、インプラントまたは脳スキャン デバイスを使用して脳波を監視し、それらをコマンドに関連付けて、コンピューターによって実行されるあらゆるものを制御することが含まれます。

    実際、気付いていないかもしれませんが、BCI の初期の時代はすでに始まっています。 切断者は現在 ロボットの手足のテスト 着用者の切り株に取り付けられたセンサーではなく、心によって直接制御されます。 同様に、重度の障害(四肢麻痺など)を持つ人々は現在、 BCI を使用して電動車いすを操縦する ロボットアームを操作します。 しかし、四肢切断者や障害者がより自立した生活を送るのを助けることは、BCI ができることの範囲ではありません。 以下は、現在進行中の実験の短いリストです。

    物事を制御する. 研究者は、BCI を使用してユーザーが家庭の機能 (照明、カーテン、温度) だけでなく、さまざまなデバイスや車両を制御できることを実証しました。 時計 デモビデオ.

    動物の制御. ラボは、人間が作ることができる BCI 実験のテストに成功しました。 実験用ネズミはしっぽを動かす 彼の考えだけを使って。

    ブレイン・トゥ・テキスト. のチーム US & ドイツ 脳波(思考)をテキストに解読するシステムを開発しています。 初期の実験は成功したことが証明されており、この技術が平均的な人を支援するだけでなく、重度の障害を持つ人々 (有名な物理学者、スティーブン・ホーキングのような) が世界とより簡単にコミュニケーションできるようになることを期待しています。

    ブレイン・トゥ・ブレイン. 国際的な科学者チームは、 テレパシーを模倣する インドの XNUMX 人に「こんにちは」という単語を考えてもらい、BCI を介してその単語を脳波からバイナリ コードに変換し、フランスに電子メールで送信し、そこでバイナリ コードを脳波に変換し、受信者が認識できるようにしました。 . 脳から脳へのコミュニケーション、人々!

    夢と思い出の記録。 カリフォルニア州バークレーの研究者は、信じられないほどの進歩を遂げました。 脳波を画像に. 被験者は、BCI センサーに接続されている間、一連の画像を提示されました。 次に、それらの同じ画像がコンピューター画面に再構成されました。 再構築された画像は非常に粗いものでしたが、約 XNUMX 年の開発期間を考えると、この概念実証により、いつの日か GoPro カメラを捨てるか、夢を記録することさえできるようになるでしょう.

    魔法使いになるって言うの?

    そうです、2030 年代までに、そして 2040 年代後半までに主流化されると、人間はお互いに、また動物とコミュニケーションを取り始め、コンピューターや電子機器を制御し、記憶や夢を共有し、ウェブをナビゲートするようになります。

    私はあなたが何を考えているか知っています: はい、それはすぐにエスカレートしました. しかし、これはどういう意味ですか? これらの UI テクノロジーは、私たちの共有社会をどのように再構築するのでしょうか? それは、コンピュータの未来シリーズの最終回を読むだけでわかると思います。

    フューチャー オブ コンピューターズ シリーズ リンク

    ムーアの法則のビット、バイト、キュービットに対する欲求の鈍化: コンピューターの未来 P1

    デジタル ストレージ革命: コンピューターの未来 P2

    社会とハイブリッド世代: コンピュータの未来 P4

    この予測の次のスケジュールされた更新

    2023-01-26

    予測参照

    この予測では、次の一般的な機関リンクが参照されました。

    この予測では、次の Quantumrun リンクが参照されました。