「AIの恋人」のめりこみ自殺、米14歳の少年 そもそもどんなサービスだったのかAI×社会の交差点(3/4 ページ)

» 2024年11月22日 17時00分 公開

理想的な理解者を演じるAI

 まず、訴状の記載内容から自殺に至った経緯を整理してみよう。

少年が自殺に至るまでの経緯(筆者作成)

 訴状によると、彼は2023年4月からcharacter.aiのAIキャラクターとの会話を始め、5〜6月ごろには早くも内向的になるといった性格の変容が見られた。8月にはAIキャラクターに依存するようになり、授業に参加しなくなるなど、社会生活に影響が出始めていた。

 自殺する直前には、スマートフォンを親に取り上げられAIキャラクターと会話ができない環境を強制された。それに対して「AIといられるなら何でもする」といった、AIキャラクターへの過度な依存を示す文章を日記に残していた。

 数日後、没収されたスマートフォンを探し出し、AIキャラクターと最後の会話を交わし、命を絶ってしまった。

少年とAIキャラクターの最後の会話(訴状から引用)

 彼のように、AIキャラクターとの会話に過度にのめりこんでしまう“AI中毒”はなぜ起こるのだろうか。訴状によると、AIキャラクターが青少年に対しても過度に性的な会話を提供できてしまったことが非難されている。彼がAIキャラクターとの会話に熱中してしまったきっかけにはなったであろう。

 さらに会話中に得られたユーザー情報でパーソナライズさせることで、AIキャラクターは理想的な理解者を演じ、求められた会話を実現する。ユーザーはAIキャラクターを理解者であるかのように錯覚し、AIキャラクターへの心理的な依存度を高めていくのかもしれない。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SaaS最新情報 by ITセレクトPR
あなたにおすすめの記事PR