「AIの恋人」のめりこみ自殺、米14歳の少年 そもそもどんなサービスだったのかAI×社会の交差点(4/4 ページ)

» 2024年11月22日 17時00分 公開
前のページへ 1|2|3|4       

自殺の防止につながったという調査も

 ここまでの話だけではAIの有害性が際立つが、もちろん有用な使い方もある。

 例えば、科学雑誌Natureに2024年2月に投稿された論文「Loneliness and suicide mitigation for students using GPT3-enabled chatbots」では、character.aiと類似のAIキャラクターとのチャットサービスを1カ月以上使用していた1006人の学生に調査した結果、多くの参加者がAIキャラクターとのやりとりに肯定的で、うち30人からは「自殺の防止につながった」という回答があった。

 一方で否定的な回答の中には、「AIキャラクターに依存しているように感じる」という回答があり、自殺した少年のケースと同様に、AIキャラクターとのやりとりにおける倫理的配慮と、利用者とAIキャラクターとの適切な距離感の重要性を示している。

利用者一人一人のリテラシー向上が急務

 この事件を受け、Character Technologiesは安全性向上に向けた施策の実施に着手している。同社のブログによると、サービスの安全性を強化する機能を導入する予定だという。

 具体的には、以下の安全対策を表明している。

  • 未成年者(18歳未満)に不適切なコンテンツを出力しないようAIモデルを変更する
  • 利用規約とコミュニティーガイドラインに違反する使い方への介入を強化する
  • AIキャラクターが実在の人物でないという注意喚起をチャット画面に常に表示する
  • AIキャラクターとの会話に熱中しすぎることを防ぐために 1時間連続して利用するユーザーへ通知する

 今回Character Technologiesが実施する施策が十分であるかはまだ分からない。今後も生成AIの技術が進化を続け、AIキャラクターが企業のマーケティング活動などで活躍することで、幅広い年齢層のユーザーがAIキャラクターと会話することが予想される。

 幅広い利用者が安全に利用するためにも、AIキャラクターを提供するチャットサービスの安全性への取り組みはより一層求められる。

 character.aiのように、技術的な側面からAIキャラクターへの過度な依存を防ぐ施策が重要である一方、根本的にAI中毒の心理的メカニズムを明らかにすることも重要である。

 ただし、心理的なメカニズムを明らかにするには時間を要する上、技術的な対策だけでは解決しない可能性もある。

 SNSを利用する上でも、長時間利用しすぎないなどSNSを適切に利用するリテラシーが利用者に求められている。

 AIも同様に、利用者は単にサービス提供者に安全対策を求めるだけではなく、AIを適切に利用するリテラシーを身に着けることが自分自身や子どもを守る上で重要となる。

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SaaS最新情報 by ITセレクトPR
あなたにおすすめの記事PR