メディア
ITmedia AI+ >

プロンプトエンジニアリングは死んだのか? “AIへの呪文不要論”がささやかれるワケ(1/4 ページ)

» 2025年05月15日 12時08分 公開
[小林啓倫ITmedia]

 生成AIから望んだアウトプットを得るために、最適な指示を考え、インプットする技術「プロンプトエンジニアリング」。2022年末のChatGPT登場以降、生成AIの普及にあわせて大きな注目を集めるようになり、そのスキルを保持・実行する人物は、「プロンプトエンジニア」という職業として確立されるに至った。

 その注目度は非常に高く、23年4月の米Time誌の記事では、プロンプトエンジニアの年収として33万5000ドル(約5000万円)が提示された例もあると報じられている。

 ところが最近、プロンプトエンジニアリングはもはや不要であり、従ってプロンプトエンジニアという職業も無くなるだろうという意見が出ている。いったいその理由はなぜか、主な主張を整理し、その上でプロンプトエンジニアリングが本当に無くなってしまうのかを考えてみたい。

プロンプトエンジニアリングはもはや不要な技術か?(画像作成:編集部)

プロンプトエンジニアリングが必要だったワケ

 そもそもなぜ、プロンプトエンジニアリングが必要とされ、それを操る人物がプロンプトエンジニアとして高給で雇用されるようになったのだろうか? 議論の前提を明確にするために、ここで整理しておこう。議論を単純化するために、この記事では考察の対象を、対話型AIとLLM(大規模言語モデル)に限定したい。

 前述の通り、プロンプトエンジニアリングとは生成AI(より正確に言えばLLM)に対して最適な指示(プロンプト)を与え、望み通りのアウトプットを得るという技術である。この技術と、それを専門に行うプロンプトエンジニアが必要とされた背景には、もちろん理由がある。

 最大の理由は、初期のLLMの特性だ。22年末にChatGPTが一般向けにリリースされた際、使用されていたLLMはGPT-3.5シリーズだった。そのアウトプット品質は当時の人々を十分に驚かせるものだったが、当初はプロンプトが少し違うだけで、アウトプットが大きく変化してしまっていた。

 22年11月30日に公開された米OpenAIの公式文書(ChatGPTの概要を紹介したもの)の中でも「ChatGPTは入力フレーズの微調整や、同じプロンプトを複数回試みることに敏感です。例えば、ある質問の言い回しに対しては答えを知らないと主張することがありますが、少し言い換えると正しく回答できることがあります」と記載がある。

OpenAIの公式文書から引用

 従って、何が適切な言い回しなのかを調査したり、その知識に従って正確なプロンプトを入力したりすることが極めて重要だった。それはまるで、魔法使いが呪文のフレーズを学び、正しく詠唱する行為に例えられるだろう。

 しかしどのような質問文や質問方法が適切かは、LLMという技術を理解していなければ判断できない。場合によっては、個々のLLMのクセや特性も把握しておく必要がある。

 またそれと同時に、業界特有の知識も必要とされた。当たり前の話だが、出力された回答がどの程度正しいかを判断できなければ、プロンプトの正しさも判断できないからだ。つまり「LLMに関する専門知識」と「特定の業界に関するドメイン知識」が必要になるため、その両方を備えた人物が「専門家」として位置付けられたのだ。

 しかも生成AIの進化と普及、そしてそれに伴うユースケースの拡大によって「プロンプトの専門家」に対する需要が爆発的に増える一方、そのような専門家の数は急速には増えなかった。こうした事態から、職業としてのプロンプトエンジニアの成立と、その給与の上昇がもたらされたと考えられる。

なぜプロンプトエンジニアリングは不要になるのか?

 では本題に入ろう。前述のような状況があった中で、なぜプロンプトエンジニアリングが不要になりつつあるのだろうか? いまネット上で提示されている主張の中で、主なものを挙げてみたい。

AIモデル/アプリケーション自体の進化

 プロンプトエンジニアリングが不要になりつつある最大の理由として「ささいな言い回しの違いで、LLMの回答品質が大きく左右される」という状況が終わろうとしていることが挙げられる。AIモデル自体が進化し、曖昧な指示やスペルミスに対応したり、必要に応じてユーザー側に意図を問いかけたり、AIアプリケーションの側で適切なプロンプトを生成したりするようになってきているのだ。

       1|2|3|4 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.