OpenAIがChatGPTの改善方針を明らかに AIツールに求められる「透明性」とはCIO Dive

「ChatGPT」は便利で将来性に富んだツールである一方で、事実に基づかない内容や偏りのある内容を生成するといった問題が指摘されている。こうした懸念に応えてOpen AIは同ツールのガイドラインを改良する方針を明らかにした。

» 2023年03月17日 07時00分 公開
[Lindsey WilkinsonCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 Microsoftとパートナーシップを締結しているOpenAIが提供するAI(人工知能)チャットbot「ChatGPT」は、人間が投げかける複雑な質問や専門性の高い分野の質問に対して、これまでのAIツールに比べてはるかに「それらしい」回答を返すことで注目を集めている。

 ChatGPTを利用することで「調べものがはかどる」「新しいビジネスに使える」などの期待が高まる一方で、ChatGPTが記述する文章が事実に反していたり、存在しない論文がソースとして示されていたりなど、同ツールが生成する内容が“要注意”であることも明らかになっている。

ChatGPTをどう改善する?

 懸念の声が挙がる中、ついに2023年2月16日、提供元のOpenAIがChatGPTのガイドラインを改良する方針を示した。OpenAIはChatGPTの何をどのように変えようとしているのか。

 OpenAIは、AIが提供する価値を広範囲で再定義し、一般からのインプットの増大に対応した標準の挙動と、対応すべき範囲の設計に対する技術的な調整を計画していることを2023年2月16日(現地時間)に発表した(注1)。同社はファインチューニングされたGhatGPTのガイドラインの一部を2022年7月に既に公表している(注2)。

 声明によると、OpenAIはChatGPTの動作に関する知識を深めつつ、ガイドラインを改良していく予定だ。「ユーザーがAIの能力を面白がって試すような潜在的なマイナス面を考慮して、より厳密にガイドラインを作成し、透明性の高い方法で共有するよう努めている」と同社は述べる。

 調査会社であるForresterのローワン・カラン氏(アナリスト)は「規制当局やユーザーから、(ChatGPTの)データの収集や使用例に関する透明性を高めるよう求める声が大きくなっている」と指摘する。

 ChatGPTの台頭によって、AIを搭載したツールの能力と欠点、そして企業の技術に対する影響に注目が集まるようになってきた。

 ユーザーからの報告によると、ChatGPTはサービス開始当初からクエリに対して不正確で偏った応答を生成していた(注3)。最近では、「なぜ、政治家や政治的な思想に関連するコンテンツを生成することをChatGPTが拒否するのか」という疑問の声が上がっている。

 これらの不具合によって議員や一般市民によるChatGPTへの監視の目が厳しくなっている(注4)。OpenAIは公式ブログで以下のように述べた。「われわれはガイドラインをより明確化できるよう取り組んでいる。ChatGPTの立ち上げから学んだことに基づいて、潜在的な落とし穴やバイアス、論争の的になる人物やテーマに関連する課題について、レビュアーに明確な指示を出すつもりだ」

 Cisco Systemsが2023年2月に発表した4700人のセキュリティ専門家を対象に実施した調査によると(注5)、60%近くの組織が「AIアプリケーションの仕組みを説明することで、消費者がAIをより快適に利用できるようになる」と考えている。

 カラン氏は「CIO(最高情報責任者)はコンシューマー向けのツールと関連する問題に目を向けることで、自社内で同様の問題が発生した場合の解決策を考えられる」と述べる。

ビジネスに利用され始めたChatGPT

 既にOpenAIの技術をビジネスプロセスに採用した組織もある。マッチングアプリ「OkCupid」を提供するOkCupidは、デート相手に対する質問を生成するためにChatGPTを使用している(注6)。また、飲料メーカーであるKeurig Dr Pepper傘下のSnappleは2023年2月初め、ユーザーがChatGPTを利用して「事実」を生成してSNSで共有するツール「Snapple fAIct Generator」を発表した(注7)。

© Industry Dive. All rights reserved.

注目のテーマ