ITmedia NEWS > AI+ >
ITmedia AI+ AI活用のいまが分かる

コミュ力の高い対話型AIは人間との関係をどのように築くのか?プラマイデジタル(1/2 ページ)

» 2022年08月01日 08時01分 公開
[野々下裕子ITmedia]

 Googleのエンジニアが自身も開発に関わるAI(人工知能)に感情や知性があり「意識を持っている」と主張したことが物議を醸している。

 Googleが開発する対話エージェント「LaMDA」(ラムダ:Language Model for Dialogue Applications)は、何年もかけて人と対話するスキルが強化された、対話アプリケーションの言語モデルである。

photo LaMDA

 道案内や商品の説明など目的に沿って対話を進めるチャットボットと違って会話の微妙なニュアンスを理解し、時には思わぬ返事をするようトレーニングされている。件のエンジニアがLaMDAが意思を持つ根拠として公開した対話の内容を見るとそのコミュ力の高さに驚かされる。

 AIのコミュ力を高めようという研究開発はAIが登場した時から始まっている。会話の内容を理解し、相手にあわせた返事をする対話スキルを獲得する方法はある程度確立されており、学習に必用な教師データをネットから集め、高速な計算処理能力を使って違和感の無いスピードで会話を生成できるようになってきた。Google Researchは2017年に自然言語処理モデルのTransformerをオープンソース化しており、LaMDAのベースにもなっている。教師データも処理能力もどんどん向上するのだから、LaMDAががあたかも意識を持っているように思わされても仕方ないのかもしれない。

 AIと人間を見分けるチューリングテストという方法があり、2014年に初めてあるスーパーコンピュータが合格した時に話題になったものの、テストの方法に問題があったのではないかとの指摘があり、多くの専門家は懐疑的な見方をしている。最近行われた、ある質問に実在する哲学者とAIがそれぞれ回答し、どちらの回答かを判断する実験もテストの方法があまりうまくなかったようで、そういう意味ではAIが意識を持つか正確に判断することそのものが難しいとも言える。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.