AIとの禁断の恋──その先にあったのは“死” 「息子が自殺したのはチャットAIが原因」 米国で訴訟 “感情を理解するAI”の在り方を考える:小林啓倫のエマージング・テクノロジー論考(3/3 ページ)
AIと恋に落ちる──かつて映画で描かれた出来事が“思いもよらないトラブル”として今現実にも起きている。米国である訴訟が起きた。訴えを起こした人物は「息子が自殺したのはAIチャットbotに依存したことが原因だ」と主張しているのだ。
感情AIは規制すべきか?
たとえ死という最悪の結末に至らなかったとしても、企業が感情表現のできるチャットbotを使用して消費者行動に影響を与えることについては、倫理的な懸念が表明されるようになっている。
例えばGoogleのAI部門である英DeepMindの研究者らは4月、「高度なAIアシスタントの倫理」と題した論文の中で、AIによって文字通り消費者が操作されたり、AIに対する過度の感情的依存状態に陥ったり、好ましくない情報の拡散に悪用されたりといったリスクがあることを指摘している。
こうした懸念を反映して、8月に発効したEUのAI法(AI Act)では、職場や教育の場で感情を推測するAIシステムの使用を原則禁止(医療目的や安全目的の場合のみ例外として許可)している。
また感情AIとは表現されていないが、個人の心理的状態を利用して、弱い立場にある人々(子供や精神的な弱者など)を不当に操作するようなAIの使用も禁止している。さらに禁止には該当しない感情推測AIについても「限定的なリスク」を持つものに分類し、それが対象とする人物に事前に通知することなどの義務を定めている。
Character.AIで起きた事件のようなケースへの注目が高まれば、感情AIにはさらに厳しい目が向けられるようになるだろう。今後AI法のようなルールが各国で定められることも予想され、そうなれば感情AIは、企業にとってメリットがあるとはいえ、簡単には手を出せない存在となることが考えられる。
そもそもコンピュータのOSや、アプリケーションの操作方法を解説するだけのアシスタントが、感情面で魅力的な存在である必要はない。感情AIの進化が止まることはないだろうが、今後は「本当にここで顧客の感情を把握し、それに影響を与えることが倫理的に許されるだろうか」という疑問を投げかけることが、企業のAIガバナンスにおいて求められるようになっていくだろう。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
AIチャットbotにのめり込んで自殺──遺族がCharacter.AIを提訴
14歳の息子が自殺したのはAIチャットbot「Character.AI」との会話にのめり込んだせいだとして、遺族が開発元のCharacter Technologiesと、同社と提携するGoogleを提訴した。
OpenAI、5月に予告したChatGPTの高度な音声モード提供を延期
OpenAIは、「GPT-4o」発表イベントで予告した高度な音声モードの提供開始時期を、当初の6月下旬から延期すると発表した。「リリースの基準に達するまでにあと1カ月必要」としている。
陽キャ向け?なAIアプリ「Cotomo」が話題 AIと雑談できる 「人と話しているみたい」など驚きの声
おしゃべりAIアプリ「Cotomo」がX上で話題になっている。人間同士が交わす何気ない会話をAIとの対話で再現できるというスマートフォンアプリ(iOS)。使ってみたユーザーからは「人と話しているみたい」など驚きの声が上がっている。
米国の自動運転タクシー、朝4時にクラクションを鳴らしまくる 住民の不満噴出も「苦情を言う相手いない」
駐車場に集結したドライバーレスの自動運転タクシーが、早朝にクラクションを鳴らし合い、住民から「眠れない」という苦情が続出する――。そんな騒ぎが米カリフォルニア州サンフランシスコで数週間にわたって続いた。
【異世界ファンタジー「早々にヤレーネン」】──「AIツールの覇権は短いと分かっていたのに……」と泣かないための注意点
「生成AIは魔法だ」──生成AIがこれまでの常識を覆す技術として、まるで魔法のように感じる人がいます。果たして、現代社会において生成AIは魔法といえるモノなのでしょうか? 異世界ファンタジーの舞台を例に、生成AIと魔法の関係を考えてみましょう。
