AI⏐感情認識AIは「共感」の代用品ではない。

AI⏐感情AIは共感の代用にはならない
  • URLをコピーしました!

(以下は、WiredのAIに関する記事を翻訳編集したものであり、元の記事・内容について当社が独自に制作・発信しているものではございません。)

目次

まとめ

・2023年、感情認識AI(人間の感情を検出し、対話する人工知能)は、機械学習の主要な応用分野のひとつになるだろう。

・感情表現は社会的・文化的背景に影響されるため、限られた科学的根拠に基づくと誤解を招き、人種的偏見が増幅される可能性がある。

・感情認識AIを無批判に受け入れることの危険性を認識する必要がある。

感情認識AIは「共感」の代用品ではない。

~人工知能(AI)は人間の表情の細かいニュアンスまでは把握できない~

2023年、感情認識AIは機械学習の重要な応用分野のひとつになるだろう。

例えば、元Googleの研究者アラン・コーウェンが設立したヒュームAIは、言葉、表情、声のトーンから感情を測定するツールを開発している。

スウェーデンのスマート・アイズ社は最近、MITメディアラボのスピンオフ企業で、1.2秒未満の音声サンプルから怒りなどの感情を分類するアルゴリズム「サウンドネット・ニューラル・ネットワーク」を開発したアフェクティバ社を買収した。

動画プラットフォームのZoomもZoom IQを導入し、バーチャル会議中の感情やエンゲージメントをリアルタイムで分析できるようになる。

Free vector wireframe robot. ai artificial intelligence in robotic hand. machine learning and cyber mind domination concept.
Designed by iuriimotov / Freepik

今年、テック企業は、銀行、教育、ヘルスケアなどあらゆる分野で、ユーザーとのより共感的なつながりを生み出すために、人間の感情を忠実に模倣できる高度なチャットボットをリリースするだろう。

マイクロソフトのチャットボット「Xiaoice」はすでに中国で成功を収めており、平均的なユーザーは「彼女」と1カ月で60回以上会話していると言われている。チューリングテストでは、ユーザーが10分間このボットを認識できなかったという結果も出ている。

ジュニパー・リサーチ・コンサルタンシー社の分析によると、ヘルスケアにおけるチャットボットとのやり取りは2018年から167%近く増加し、2023年には年間28億件に達するという。これにより、医療スタッフの時間が解放され、世界中の医療システムで約37億ドルの節約につながる可能性がある。

Free photo programming background collage
Image by Freepik

2023年末までに、感情認識AIは学校で一般的に使われるようになるだろう。

香港の一部の中等学校では、すでにファインド・ソリューションズAIが開発した、生徒の表情筋の微細な動きを測定し、ネガティブな感情とポジティブな感情を識別するAIプログラムを使用している。教師はこのシステムを使って生徒の感情、やる気、集中力の変化を追跡し、生徒が興味を失いつつある場合には早期に介入できるようにしている。

Free vector school building educational institution, college
Image by upklyak on Freepik

問題は、ほとんどの感情認識AIが欠陥のある科学に基づいていることだ。

感情認識AIのアルゴリズムは、多様で大規模なデータセットで訓練されたとしても、社会的・文化的背景といった人物や状況の奥深さを考慮することなく、表情や声のトーンを感情に置き換えてしまう。
例えば、アルゴリズムは人が泣いていることを認識して報告できても、その涙の背後にある理由や意味を正確に推測することはできないかもしれない。

同様に、眉間にしわを寄せている人が必ずしも怒っているとは限らないが、アルゴリズムはそのような結論に達する可能性が高い。なぜだろうか?

私たちは皆、社会的・文化的規範に従って感情表現を適応させているため、私たちの表情が必ずしも内的状態を忠実に反映しているとは限らない。

多くの場合、人は本当の感情を隠すために「感情作業」を行っており、自分の感情をどのように表現するかは、自発的な表現ではなく、学習された反応である可能性が高い。

例えば、女性は男性よりも自分の感情、特に怒りのような否定的な価値を持つ感情を修正する傾向が強い。

したがって、感情状態を前提にしたAI技術は、私たちの社会におけるジェンダーや人種の不平等を悪化させる可能性が高い。

2019年のユネスコの報告書は、AIのジェンダー化による有害な影響を示しており、”女性的な”音声アシスタントシステムは、感情的な受動性や隷属性といった固定概念に従って設計されている。

顔認識AIもまた、人種的不平等を助長する可能性を秘めている。

有名な2つの感情認識ソフト「Face」とマイクロソフトの「Face API」を使ってNBAの400試合を分析したところ、黒人選手は平均して、笑顔のときでさえネガティブな感情を割り当てられる傾向があることがわかった。

これは、黒人男性は攻撃的で威嚇的であるという固定観念に基づいているが、職場でよりポジティブな感情を投影しなければならないことを示す他の研究結果を裏付けている。

感情認識AIの技術は、今年さらに普及するだろう。しかし、その性能の問題点に目を向け、検証しなければ、人種やジェンダーの偏見をさらに強化し、世の中の不平等を拡大・助長し、すでに疎外されている人々にさらに不利益をもたらす可能性があることに留意すべきである。

出所:WIRED “Emotional AI Is No Substitute for Empathy”

TikTokマーケティングのお問い合わせはTORIHADA

torihada

TikTokを活用したマーケティング施策でお困りの際は、TORIHADAまでご相談ください。コンテンツの企画制作、施策のKPI設計とPDCAの実行まで、一貫してサポートいたします。

また、700人以上のクリエイターやインフルエンサーが所属する「PPP STUDIO」から、お客様に適した人材のキャスティングも可能です。

「TikTokの運用のやり方が分からない」「思うような成果が出ない」「インフルエンサーマーケティングをやってみたい」など、ノウハウや実績に基づきお客様の課題や要望に沿って最適なプランをご提案します。

お問い合わせはこちら

AI⏐感情AIは共感の代用にはならない

この記事が気に入ったら
いいね または フォローしてね!

  • URLをコピーしました!

TORIHADA RECRUIT

TORIHADA中途採用はこちら
目次