前述のPwCも、同じアドバイスの中で「EUのAI法を確実に順守するためには、さまざまなリスク分類、特に禁止されているAIと高リスクのAIシステムに関する要求事項に対する認識と理解が必要」と指摘している。
このようにリスクの分類を行う際には、自社独自のルールを考えるというよりも、法律やガイダンス、業界内のガイドライン類に基づいて判断するという姿勢が求められる。
ちなみにAI法に基づいてEUに設置される「AIオフィス」という機関には「AIリテラシー、特にAIの開発、運用、利用に携わる人々のAIリテラシーを促進すること」もミッションとして与えられており、彼らから今後さまざまな関連マテリアルが提供される可能性がある。
考えてみれば、これらは当たり前の内容だ。乗り物で喩えれば、小型のスクーターを運転するのと、大型のトラックを運転するのとでは必要となるスキルは全く異なる。また家族が乗る乗用車のハンドルを握るのと、大勢の客を乗せた旅客機にパイロットとして乗り込むのとでは、責任やリスクが大きく違う(もちろん預かる命の重さに差は無いが)。
いずれも操るのが「乗り物」という点では一緒だからといって、同じトレーニングを施せば十分ということにはならない。
しかしAIの場合、こうした状況が目に見えるようになっているわけではない。社内で、特に生成AIが企業内で導入されるようになってからは、それを使うシチュエーションが包括的に把握されていないという状況が生まれつつある。
何でも質問に答えてくれるチャットbotを社内で導入したときに、従業員はどのような使い方をするのか。そこにはどのようなリスクが生じる可能性があり、それを抑制するにはどのような知識が求められるのか。インシデントが発生した際に、それがどのように責任分解され、どのような役割の人物にどこまでの責任が発生するか。
これらを全て適切に把握するのは難しいが、「誰がガードレールの無い道を走るダンプカーのハンドルを握っているのか」を見える化した上でなければ、AIリテラシーを教育するためのカリキュラムも、それが定着したことを判断する基準も検討することはできない。
この状況は、AI技術の進化するスピードが速く、全く新しい機能が次々に登場したり、これまで導入されてこなかった業務にもAIが使われるようになったりしていることによって、悪化の一途をたどっている。
さらには従業員が許可無く「BYOAI」(従業員が個人的に登録しているAIサービスを、社内の業務に使ってしまうこと)を進めるというのも、めずらしい状況ではなくなりつつある。そのような環境では、そもそもリテラシーを論じている場合ではないだろう。
この問題を解消するためには、社内のAI資産とそのユースケース(管理外で利用されている「シャドウAI」も含む)と、従業員のAIに関連するスキルセットを整理・把握するという地道な取り組みを行うしかない。その上で初めて、目標とすべきゴールを個々に設定し、現状とのギャップを埋めるカリキュラムの作成に着手できる。
もちろんその際には、政府や研究・教育機関、各種メディアが提供する教材を活用できる。あるいはさまざまな資格試験を取得していることをもって、AIリテラシーが身についているかどうかを判断するという選択肢もあるだろう。
しかし選んだのが正しい教材か、ある資格が特定の役割につく人物にとって十分なものかは、社内でのAI活用状況を明確にしなければ判断できない。
そう考えると、一口で「リテラシー」といっても、企業内でさまざまな取り組みを進めていかなければならないことが理解できるだろう。英語のliteracyの語源となったラテン語「litteratus」には、単に読み書きだけでなく、広範な知識を持つ人物(学者や聖職者など)を指すというニュアンスが含まれていたそうだ。
現代のAIリテラシーについても、それと同じように、幅広い知識と対応が求められる概念として理解されるようになるかもしれない。
物議を醸した「顔写真から自閉症を判別するアプリ」 医療分野でのAI活用に求められる倫理観を考える
社内生成AIを2週間で開発→3カ月のPoCで全社展開 スピードの秘訣をプロジェクトの第一人者に聞いた
23個のAIツールを9カ月でスピード開発──ZOZO、生成AI活用に前のめり 大量展開のコツを聞いた
AIとの禁断の恋──その先にあったのは“死” 「息子が自殺したのはチャットAIが原因」 米国で訴訟 “感情を理解するAI”の在り方を考える
企業「ChatGPTは使っちゃダメ」→じゃあ自分のスマホで使おう──時代はBYODから「BYOAI」へCopyright © ITmedia, Inc. All Rights Reserved.