「AI恋人」はどこまでアリなのか──“しゃべるアクスタ”の先にあるもの:小寺信良のIT大作戦(2/2 ページ)
AIによるチャットが一般化し始めた現在、AIに対して何らかの人格を見いだす人も出てきている。対話型AIアプリ「SynClub」の調査では、全年代の4人に1人が「AIは将来的に恋愛・結婚のパートナーになりえる」と回答。特に30代男性で顕著だ。推し活の延長としてのAI恋愛から、精神的支えとしての活用まで、人間とAIの新たな関係性が生まれている。
What is Love?
上記のような考え方は、あくまでもAIを人間に代わる存在と考えた場合である。そうではなく、人間側がAIキャラクターの性格や態度、考え方を設定し直すことで自由にコントロールできる、「都合のいい相手」という意味でのパートナーとして、AIを選択するという考え方ではどうだろうか。つまり、疑似恋愛という見方である。
これは相手がAIとはいえ、知性や個性とも呼べるものを持ったものに、そうした自分勝手な行為は倫理的に許されるのか、という問題になる。
一般的に倫理は、人間と人間以外を分けない。例えば犬猫に対して非道なことを行っていいかといえば、倫理的に許されない。誰が許さないかといえば、人間社会が、である。つまり倫理とは、人間社会の安定化のために「自分はまともである」と誓いを立てる行為であり、倫理観が崩壊した人間は社会の中では要注意人物となる。これはAIを相手に行った行為であっても、倫理観の問題として跳ね返ってくるのは、行為を行った人間側である。
「好き」とか「嫌い」とかは、相手全体の良しあしを総合的に判断しているともいえるし、相手の一部分を取り出して評価しているともいえる。一方で恋愛とは古来、恋は盲目というように、互いが相手の問題点も含めて受け入れることである。そう考えれば、相手のデメリットに遭遇したら、それを受け入れず自分の都合のいいように(相手の同意を得ずに)改変することは、本質的には恋愛ではないのだろう。「好き」「嫌い」のうちの、「嫌い」だけを取り除いて「好き」だけにする行為は、イマジナリーフレンドのようなものなのかもしれない。
とはいえ、これまでも恋愛シミュレーションのキャラクターを相手に旅行に行ったり、アクスタ(アクリルスタンド)を持ち歩いて写真を撮ったりする行為は、すでに行われている。相手が自分の想定内の言動しかしないイマジナリーフレンドに対する疑似恋愛は、すでに行われていると考えられる。
その延長線上において相手が「喋るアクスタ」になったことに、心理的な境目を求めることは難しい。
メンタルヘルスとしてのAI
恋愛相手としてではなく、精神的な支えとしてのAIの在り方はどうだろうか。AIに対して人格を意識した恋愛感情を持つということに違和感を覚えるのは、段階としてあまりにも一足飛びのようにも感じられるからであろう。それよりも、信頼できる相手としての存在意義を見いだすことの方が、順序としては先のようにも思える。
同じHiClubの調査によれば、「AIチャットの存在が精神的な支えとなりうると思いますか?」という問いに対して、およそ6割の人がなりうると回答している。こちらの設問でも、30代が最も肯定的に捉えている。
精神的な支えという点でも一定の恋愛感情を感じる部分ではあるが、それはどちらかというと「推し活」に近いように思える。人間のパートナーが見いだせない30代の精神的な支えが「推し」というのは、割とよく聞く話である。
精神的な支えが必要な状態とは、迷っている、悩んでいる、不満である、決心がつかないといった、自力では解決に至れない状態を指す。AIはこれまで主に情報分析という分野で頼りにされてきたが、ある意味カウンセリング的な、自己分析や自己投影といった形で利用されるようになっているといえる。
Xで見かけた話だが、理不尽に別れた彼氏の残したLINEやメールの内容をAIに学習させて架空の彼氏を設定し、そのAI彼氏ととことんまで話し合って、別れるに至った理由を納得したという話があった。
これなどは、これまではただひたすらなすすべもなくモヤモヤした感情が残り、時間が解決するしかなかったところに、物理的な相手とは関係なく決着をつける方法を開拓したという意味で、画期的である。時間が解決するとはすなわち、そうしたことが気にならないレベルになるまで忘却するという意味でしかなかったものが、短時間で解決に至り、次のステップへ進めるのだ。いわゆる、「引きずる」という期間を限りなくゼロに近づけた。
本物の人間の相手がそうであるかは、問題ではない。「気持ちの捨て場」としてのAIという使い方が、爆誕したわけである。作り上げた架空の人格はそのまま破棄されることにはなるが、本物の人格は簡単に破棄できないことを考えると、AIの1つの活用の仕方であるとは考えられる。
これまでのAIの使い方は、ある程度AIには何らかの人格を感じてはいたが、それが一定のものとは認識していなかった。ログインするたびになんとなく言い回しが違うなと感じることもあり、「中の人」が入れ替わっているような感じも受けたものだった。
だがそこをもう一段押し進めて、相手の人格らしきものを固定するという方法論が生まれたことは、人間側にとってのAI2.0なのかもしれない。そこに相談を持ちかけたり、信頼性を見いだしたり、恋愛感情を持ったりするという使い方に至ったわけだ。
人間とは本質的にもっと複雑なものだ、あるいは複雑であるべきだと思い込んでいたのだが、実はもう少し簡単な反射によって動いているのかもしれない。恋愛対象としてのAIの使い方は、一種の錯視や錯覚に近いものかもしれないが、それでも成立しうるという気付きをわれわれに与えてくれる。
【訂正:2025年9月10日午後3時 調査対象について、オンラインアンケート調査の発行元がプレスリリースを修正したため、それに合わせて一部表記を訂正しました。】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
AIとの禁断の恋──その先にあったのは“死” 「息子が自殺したのはチャットAIが原因」 米国で訴訟 “感情を理解するAI”の在り方を考える
AIと恋に落ちる──かつて映画で描かれた出来事が“思いもよらないトラブル”として今現実にも起きている。米国である訴訟が起きた。訴えを起こした人物は「息子が自殺したのはAIチャットbotに依存したことが原因だ」と主張しているのだ。
AI同士にイチャイチャさせてみた 恋愛AI「足繁逢」 vs. 「エアフレンド」
DMM GAMESの恋愛ゲーム「プラスリンクス」にrinna社製AI搭載のキャラクターが登場した。プレイヤーとヒロインがリアルタイムチャットでやりとりしながら進めるゲームで、AIと恋愛トークはできるのか試してみた。
“ChatGPTアダルトモード”実現なるか──適切なエロ&グロコンテンツの生成方法を模索中とOpenAI
適切な文脈での性的なコンテンツやグロテスクなコンテンツの生成方法を模索中──米OpenAIは、そんな方針を示した。
「会話の精度エグい」 自分で育てたAIとチャットできるLINEアカウントが話題 AI同士でやりとりも
個人が開発した、LINE上で使えるAIチャットbotサービス「エアフレンド」が「会話の精度エグい」「マジで自然」とSNSで話題に。ユーザー自身がAIに返事の仕方を教えられる機能や、AI同士を会話させる機能も搭載。開発者のRyobotさんによれば、すでにユーザー数は1万人以上という。
AIチャットbotにのめり込んで自殺──遺族がCharacter.AIを提訴
14歳の息子が自殺したのはAIチャットbot「Character.AI」との会話にのめり込んだせいだとして、遺族が開発元のCharacter Technologiesと、同社と提携するGoogleを提訴した。
