「AIリテラシー」って一体なに? 企業に求められる水準を考える:小林啓倫のエマージング・テクノロジー論考(3/3 ページ)
「ネットリテラシー」と言えば、ネット上に流れる有象無象の情報を正しく理解し、活用する能力……といった意味で使われている。それと同じように「AIリテラシー」の必要性が昨今叫ばれている。具体的にどのような能力が求めれれるのか?
前述のPwCも、同じアドバイスの中で「EUのAI法を確実に順守するためには、さまざまなリスク分類、特に禁止されているAIと高リスクのAIシステムに関する要求事項に対する認識と理解が必要」と指摘している。
このようにリスクの分類を行う際には、自社独自のルールを考えるというよりも、法律やガイダンス、業界内のガイドライン類に基づいて判断するという姿勢が求められる。
ちなみにAI法に基づいてEUに設置される「AIオフィス」という機関には「AIリテラシー、特にAIの開発、運用、利用に携わる人々のAIリテラシーを促進すること」もミッションとして与えられており、彼らから今後さまざまな関連マテリアルが提供される可能性がある。
大型トラックと小型スクーター、必要な運転技術は同じか?
考えてみれば、これらは当たり前の内容だ。乗り物で喩えれば、小型のスクーターを運転するのと、大型のトラックを運転するのとでは必要となるスキルは全く異なる。また家族が乗る乗用車のハンドルを握るのと、大勢の客を乗せた旅客機にパイロットとして乗り込むのとでは、責任やリスクが大きく違う(もちろん預かる命の重さに差は無いが)。
いずれも操るのが「乗り物」という点では一緒だからといって、同じトレーニングを施せば十分ということにはならない。
しかしAIの場合、こうした状況が目に見えるようになっているわけではない。社内で、特に生成AIが企業内で導入されるようになってからは、それを使うシチュエーションが包括的に把握されていないという状況が生まれつつある。
何でも質問に答えてくれるチャットbotを社内で導入したときに、従業員はどのような使い方をするのか。そこにはどのようなリスクが生じる可能性があり、それを抑制するにはどのような知識が求められるのか。インシデントが発生した際に、それがどのように責任分解され、どのような役割の人物にどこまでの責任が発生するか。
これらを全て適切に把握するのは難しいが、「誰がガードレールの無い道を走るダンプカーのハンドルを握っているのか」を見える化した上でなければ、AIリテラシーを教育するためのカリキュラムも、それが定着したことを判断する基準も検討することはできない。
この状況は、AI技術の進化するスピードが速く、全く新しい機能が次々に登場したり、これまで導入されてこなかった業務にもAIが使われるようになったりしていることによって、悪化の一途をたどっている。
さらには従業員が許可無く「BYOAI」(従業員が個人的に登録しているAIサービスを、社内の業務に使ってしまうこと)を進めるというのも、めずらしい状況ではなくなりつつある。そのような環境では、そもそもリテラシーを論じている場合ではないだろう。
必要なのは、地道な「AI資産とスキルセットの管理」
この問題を解消するためには、社内のAI資産とそのユースケース(管理外で利用されている「シャドウAI」も含む)と、従業員のAIに関連するスキルセットを整理・把握するという地道な取り組みを行うしかない。その上で初めて、目標とすべきゴールを個々に設定し、現状とのギャップを埋めるカリキュラムの作成に着手できる。
もちろんその際には、政府や研究・教育機関、各種メディアが提供する教材を活用できる。あるいはさまざまな資格試験を取得していることをもって、AIリテラシーが身についているかどうかを判断するという選択肢もあるだろう。
しかし選んだのが正しい教材か、ある資格が特定の役割につく人物にとって十分なものかは、社内でのAI活用状況を明確にしなければ判断できない。
そう考えると、一口で「リテラシー」といっても、企業内でさまざまな取り組みを進めていかなければならないことが理解できるだろう。英語のliteracyの語源となったラテン語「litteratus」には、単に読み書きだけでなく、広範な知識を持つ人物(学者や聖職者など)を指すというニュアンスが含まれていたそうだ。
現代のAIリテラシーについても、それと同じように、幅広い知識と対応が求められる概念として理解されるようになるかもしれない。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
物議を醸した「顔写真から自閉症を判別するアプリ」 医療分野でのAI活用に求められる倫理観を考える
技術者向け情報共有サービス「Qiita」に載った「顔写真から自閉症を判別してみた」というエントリが物議を醸した。AI活用をする上での倫理観について、さまざまな意見が飛び交ったが、医療分野でのAI開発に求められる倫理観とは一体どのようなものか。
社内生成AIを2週間で開発→3カ月のPoCで全社展開 スピードの秘訣をプロジェクトの第一人者に聞いた
2週間の開発、3カ月のPoCで全社展開したWHIの社内向け生成AI「WeiseHub」。どのようにこのスピードで生成AI導入を実現したのか。プロジェクトの第一人者である寺尾拓さんに話を聞いた。
23個のAIツールを9カ月でスピード開発──ZOZO、生成AI活用に前のめり 大量展開のコツを聞いた
ファッションECサイト「ZOZOTOWN」を運営するZOZOは、生成AI活用に積極的な姿勢を見せており、独自のAIツール23個を約9カ月で開発、全社で展開している。同社が実行している「生成AI業務活用プロジェクト」の裏側について話を聞いた。
AIとの禁断の恋──その先にあったのは“死” 「息子が自殺したのはチャットAIが原因」 米国で訴訟 “感情を理解するAI”の在り方を考える
AIと恋に落ちる──かつて映画で描かれた出来事が“思いもよらないトラブル”として今現実にも起きている。米国である訴訟が起きた。訴えを起こした人物は「息子が自殺したのはAIチャットbotに依存したことが原因だ」と主張しているのだ。
企業「ChatGPTは使っちゃダメ」→じゃあ自分のスマホで使おう──時代はBYODから「BYOAI」へ
会社はChatGPTを禁止しているが、自分のスマートフォンからChatGPT(しかも有料契約している高性能版)にアクセスして、使ってしまえば良いではないか――。生成AIのビジネス活用が進む中でBYODならぬ「BYOAI」という発想が生まれつつある。