人間の感情を理解する人工知能

画像クレジット:
画像著作権
iStock

人間の感情を理解する人工知能

人間の感情を理解する人工知能

小見出しのテキスト
研究者は、強調技術が人間の日常生活に役立つ可能性があることを認めていますが、その限界と誤用の可能性についても警告しています。
    • 著者:
    • 著者名
      クォンタムラン・フォーサイト
    • 2021 年 11 月 1 日

    人間の感情を潜在的に分析および予測できる仮想アシスタントとスマート ガジェットのアイデアは、新しいものではありません。 しかし、映画が警告しているように、機械が人間の感情や思考に完全にアクセスできるようになると、悲惨な結果を招く可能性があります。 

    感情を理解する AI: コンテキスト

    アフェクティブ コンピューティング、つまり感情を感知し、理解し、模倣することさえできる技術の概念は、1997 年から存在しています。 Microsoft や Google などの大手テクノロジー企業は、顔認識やバイオメトリクスに続く次の大きな一歩、強調型人工知能 (AI) の開発に踏み出しました。 

    研究者は、多くの潜在的な利点があると主張しています。 携帯電話やその他のポータブル ガジェットは、最終的にはデジタル セラピストとして機能し、ユーザーの気分や会話に有意義な方法で対応できるようになる可能性があります。 仮想アシスタントは、仕事に集中する方法、ストレス、不安発作、うつ病を管理する方法、さらには自殺未遂を防ぐ方法について人間に直感的にアドバイスする基本的な応答を超えている可能性があります. 

    破壊的な影響

    感情認識技術の可能性は有効ですが、研究者は規制が非常に必要であることも認めています。 現在、リモート ワーカーの採用プロセスや公共の場所の監視に感情認識 AI が使用されていますが、その限界は明らかです。 研究によると、人間に偏見があるのと同じように、AI にも偏見があることが示されています。AI は、(場合によっては) 黒人の顔の表情が笑っていても怒っていると検出します。 

    研究者はまた、顔の表情やボディ ランゲージに基づいて感情を分析することは誤解を招く可能性があると警告しています。これらの要因は文化や文脈にも依存するからです。 したがって、テクノロジー企業が行き過ぎないようにし、人間が依然として最終的な意思決定者であることを保証するために、規制を導入する必要があるかもしれません。

    共感的 AI のアプリケーション 

    この新しいテクノロジーのアプリケーション例には、次のようなものがあります。

    • バーチャル セラピストと連携するために、サービスや方法を調整する必要があるメンタル ヘルス プロバイダー。
    • 単にコマンドに従うのではなく、気分を予測したり、ライフスタイルのオプションを積極的に提案したりするなど、より優れた機能を提供する可能性のあるスマート家電/家庭。
    • 消費者のニーズと好みによりよく適応するために、感情認識アプリとセンサーを含める必要があるかもしれない携帯電話メーカー。

    コメントする質問

    • あなたの感情を予測できるスマートなガジェットや電化製品が好きですか? なぜですか、そうでないのですか?
    • 感情的に知的な機械が私たちの感情を制御できる他の方法は何だと思いますか?

    インサイトの参照

    この洞察のために、次の一般的な機関リンクが参照されました。

    IEEEスペクトラム 感じるAIの構築