(以下は、WiredのAIに関する記事を翻訳編集したものであり、元の記事・内容について当社が独自に制作・発信しているものではございません。)
まとめ
・2023年、感情認識AI(人間の感情を検出し、対話する人工知能)は、機械学習の主要な応用分野のひとつになるだろう。
・感情表現は社会的・文化的背景に影響されるため、限られた科学的根拠に基づくと誤解を招き、人種的偏見が増幅される可能性がある。
・感情認識AIを無批判に受け入れることの危険性を認識する必要がある。
感情認識AIは「共感」の代用品ではない。
~人工知能(AI)は人間の表情の細かいニュアンスまでは把握できない~
2023年、感情認識AIは機械学習の重要な応用分野のひとつになるだろう。
例えば、元Googleの研究者アラン・コーウェンが設立したヒュームAIは、言葉、表情、声のトーンから感情を測定するツールを開発している。
スウェーデンのスマート・アイズ社は最近、MITメディアラボのスピンオフ企業で、1.2秒未満の音声サンプルから怒りなどの感情を分類するアルゴリズム「サウンドネット・ニューラル・ネットワーク」を開発したアフェクティバ社を買収した。
動画プラットフォームのZoomもZoom IQを導入し、バーチャル会議中の感情やエンゲージメントをリアルタイムで分析できるようになる。
今年、テック企業は、銀行、教育、ヘルスケアなどあらゆる分野で、ユーザーとのより共感的なつながりを生み出すために、人間の感情を忠実に模倣できる高度なチャットボットをリリースするだろう。
マイクロソフトのチャットボット「Xiaoice」はすでに中国で成功を収めており、平均的なユーザーは「彼女」と1カ月で60回以上会話していると言われている。チューリングテストでは、ユーザーが10分間このボットを認識できなかったという結果も出ている。
ジュニパー・リサーチ・コンサルタンシー社の分析によると、ヘルスケアにおけるチャットボットとのやり取りは2018年から167%近く増加し、2023年には年間28億件に達するという。これにより、医療スタッフの時間が解放され、世界中の医療システムで約37億ドルの節約につながる可能性がある。
2023年末までに、感情認識AIは学校で一般的に使われるようになるだろう。
香港の一部の中等学校では、すでにファインド・ソリューションズAIが開発した、生徒の表情筋の微細な動きを測定し、ネガティブな感情とポジティブな感情を識別するAIプログラムを使用している。教師はこのシステムを使って生徒の感情、やる気、集中力の変化を追跡し、生徒が興味を失いつつある場合には早期に介入できるようにしている。
問題は、ほとんどの感情認識AIが欠陥のある科学に基づいていることだ。
感情認識AIのアルゴリズムは、多様で大規模なデータセットで訓練されたとしても、社会的・文化的背景といった人物や状況の奥深さを考慮することなく、表情や声のトーンを感情に置き換えてしまう。
例えば、アルゴリズムは人が泣いていることを認識して報告できても、その涙の背後にある理由や意味を正確に推測することはできないかもしれない。
同様に、眉間にしわを寄せている人が必ずしも怒っているとは限らないが、アルゴリズムはそのような結論に達する可能性が高い。なぜだろうか?
私たちは皆、社会的・文化的規範に従って感情表現を適応させているため、私たちの表情が必ずしも内的状態を忠実に反映しているとは限らない。
多くの場合、人は本当の感情を隠すために「感情作業」を行っており、自分の感情をどのように表現するかは、自発的な表現ではなく、学習された反応である可能性が高い。
例えば、女性は男性よりも自分の感情、特に怒りのような否定的な価値を持つ感情を修正する傾向が強い。
したがって、感情状態を前提にしたAI技術は、私たちの社会におけるジェンダーや人種の不平等を悪化させる可能性が高い。
2019年のユネスコの報告書は、AIのジェンダー化による有害な影響を示しており、”女性的な”音声アシスタントシステムは、感情的な受動性や隷属性といった固定概念に従って設計されている。
顔認識AIもまた、人種的不平等を助長する可能性を秘めている。
有名な2つの感情認識ソフト「Face」とマイクロソフトの「Face API」を使ってNBAの400試合を分析したところ、黒人選手は平均して、笑顔のときでさえネガティブな感情を割り当てられる傾向があることがわかった。
これは、黒人男性は攻撃的で威嚇的であるという固定観念に基づいているが、職場でよりポジティブな感情を投影しなければならないことを示す他の研究結果を裏付けている。
感情認識AIの技術は、今年さらに普及するだろう。しかし、その性能の問題点に目を向け、検証しなければ、人種やジェンダーの偏見をさらに強化し、世の中の不平等を拡大・助長し、すでに疎外されている人々にさらに不利益をもたらす可能性があることに留意すべきである。
出所:WIRED “Emotional AI Is No Substitute for Empathy”