生成AIをソフトウェア開発に導入 「悪影響」を取り除くためにすべきことCIO Dive

ChatGPTをはじめとする生成AIは、さまざまな問題が指摘されつつもソフトウェア開発に導入されつつある。生成AIが与える影響の中で「良くないもの」を取り除くためにどのような施策をとるべきか。

» 2023年06月19日 08時00分 公開
[Roberto TorresCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 ITベンダーはソフトウェアのテストにAI(人工知能)を広く使用している。技術の進化に伴い、ソフトウェアの開発プロセスへの影響が懸念されている。そのため明確なガイドラインを定める必要がある。

生成AIがもたらす「悪影響」をどう取り除く?

 AIのソフトウェア開発能力は、着実に向上している。「GitHub Copilot」や「Amazon CodeWhisperer」「Tabnine」などは自然言語インタフェースを通じて開発者を支援し、オープンソースのコードを使ってソフトウェアを開発を助けている。

 コンサルティング企業Forrester Researchは、これらのソリューションを「TuringBots」と呼び、「アプリケーションコードの計画や設計、構築、テスト、デプロイを支援するAIを搭載するソフトウェア」と位置付けている。しかし、生成AIへの関心が急激に高まるにつれ、このソフトウェアの開発プロセスにどのような影響を与えるかという疑問が生じている。

 ソフトウェア開発でAIを活用しようとする企業には、アプリケーションの安全性と開発プロセスを円滑に進めるための明確なガイドラインが必要だ(注1)。実験段階では既にAIが導入され始めているため、CIO(最高情報責任者)はAIをソフトウェア開発のライフサイクルにどのように取り入れていくかを定めるポリシーを作成する必要がある。

 Forresterのマイク・グアルティエリ氏(副社長、主席アナリスト)は2023年4月のパネルディスカッションで「生成AIを排除することは、正しい方策とは思えない」と語った。

 「生成AIを排除するのではなく、経営者がITベンダーの最新動向を常に把握し、現在のエコシステム(生態系)の中で何が有効かを考え、それに基づいて導入を決定する必要がある」(グアルティエリ氏)

「安全ではない」という前提でチェック工程を踏むことが鍵

 AIツールは、最もシンプルなプロンプトを与えた場合でも次々提案しながらコードを生成できる。しかし、生成AIが書いたコードと本番環境との間には何らかの「保護層」が存在しなければならない。

 2023年2月にGitHub Copilotを開発者が使用した際には平均46%のコードがAIによって生成された。GitHub Copilotが一般公開された2022年6月の27%から増加したことからも分かるように、生成AIによって生成されたコードの採用率は上昇している(注2)。

 Forresterのディエゴ・ロ・ジュディス氏(副社長兼主席アナリスト)は「AIが出力するコードは、これまで人間が作ってきたものをベースにしているということを忘れてはいけない」と主張する。「世の中に存在する全てのソースコードは、確実に安全で脆弱(ぜいじゃく)性がないと言えるだろうか。いや、そうは言えないだろう。セキュリティチェックやセキュリティスキャンツールの実行といったステップを踏む必要がある」(ジュディス氏)

 生成AIがソフトウェア開発のライフサイクルをどのように形成していくかは、人間の関与が鍵となるだろう。

 「『ChatGPT』を責めることはできないし、TuringBotsを責めることもできない。つまり人間であるあなたにはまだ責任があるのだ」(ジュディス氏)

 ほとんどの組織は、生成AIの利用において実験段階にとどまっている。そして新しいテクノロジーである生成AIに関連する潜在的なデータプライバシーリスクは未知数にもかかわらず、経営陣はリスクよりもメリットが大きいと考えている(注3)。

 「各企業はそれぞれ異なるアプローチを取っているかもしれないが、生成AIの活用を開始し、開発者や開発チーム、さらにはIT(部門)全体を一層効率的にする方法を迅速に見つける必要がある」(ジュディス氏)

© Industry Dive. All rights reserved.

注目のテーマ