メディア
ITmedia AI+ >

「AIリテラシー」って一体なに? 企業に求められる水準を考える小林啓倫のエマージング・テクノロジー論考(2/3 ページ)

» 2024年12月05日 12時00分 公開
[小林啓倫ITmedia]

 従来型のAI、つまり特定の目的や判断、業務のみに使用される前提でAIモデルを開発するシステムの場合と、いま流行の生成AI、つまりあるていど汎用的に使用でき、そのために外部開発の基盤モデルを使っているようなシステムの場合とでは、適切に使用するために必要な知識の内容は大きく異なる。

 例えば、米ノースカロライナ大学の研究者らは、AIリテラシーのカリキュラムをテーマとした論文の中で、AIリテラシーの一種として「生成AIリテラシー」を独立させて論じている

米ノースカロライナ大学の主張

 これは「テキストや画像、音声、動画、その他のメディアを生成できるAIシステムを理解し、操作すること」に焦点を当てるもので、さらには「モデルがどのように訓練されているのか、それらが善良な用途にも悪用にも使われる可能性があることについての知識」も含むものであると定義している。

 またオーストラリアのモナシュ大学の研究者らも、生成AIリテラシーを独立したものとして論じ、それを育成するためには「基礎知識を身につけるだけでなく、プロンプトを作成し、AIが生成した出力を解釈し、このようなツールを利用する際の社会的・倫理的な影響を理解する能力も必要」と主張している。

モナシュ大学の研究者による論文

 生成AIのリスクを理解し、それに対処するために、生成AIならではの開発手法や操作方法(特にプロンプト・エンジニアリングのような特有のテクニック)まで踏み込むものとしてリテラシーを捉えているのである。

 余談だが、ここで興味深いのは、どちらの論文でも倫理面に触れている点だ。識字能力という意味のリテラシーには、何ら価値判断は含まれていない(悪意のある文章を読み・書きするリテラシーの一部である)。

 しかし生成AIの能力やそれがもたらすインパクトを考えた場合、確かにその利用者が善意に基づいて行動できることが望ましく、実際に生成AIリテラシーに関する多くの論文で、倫理面の対応を求める記述が確認できる。

「誰に」「どのような」教育を行うか?

 2つ目の分類法は、従業員の役割と責任によるものだ。これも当然の話だが、AIシステムへの関与の度合いによって、必要とされるAIリテラシーのレベルは異なる。

 コンサルティング会社の英PwCは、AIリテラシーについて「組織によってAIシステムや役割、AIの使用事例が異なるため、画一的なアプローチは存在しない」と指摘し、企業に対して「個別のスキルアップのニーズを特定し、それらのニーズに基づいて従業員をグループ分けすべき」とアドバイスしている

 例えば、採用の応募者や従業員の能力評価を行う立場の人事スタッフは、それに関わるAIシステムを使用する際、AIによる査定の倫理面や関連法規制についても理解しておく必要があるだろう。一方で社内書類の翻訳にAIを使っている従業員は、その仕組みや誤答率くらいの知識があれば差し当たって支障はない。

 3つ目の方法は、リスクを分類し、それに応じたリテラシーを教育するというものだ。例えばEUのAI法ではまさに、AIシステムをリスクレベルに基づいて分類し、医療機関や法執行機関で使用されるようなリスクの高いAIシステムについては、より厳しいガバナンスを確立することを求めている。

 従ってAIリテラシーについても、リスクの高いAIシステムを扱う従業員には、より厳しい倫理的配慮やコンプライアンス要件に関するトレーニングが必要になるだろう。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ