
K.Ishi@生成AIの産業応用
@K_Ishi_AI
Published: January 30, 2025
2
32
128
DeepSeek-R1を調査した論文でプロンプトガイドラインが示され、Few-shot(少数サンプルの提示)が非推奨なことが示された。 以前のo1の調査でも同じ結果が出ており、どうやらo1/r1のような今後主流となる推論モデルからは、Few-shotは消えてなくなるだろう。 プロンプト設計時には注意が必要だ。
この論文では、DeepSeek-R1においては複数の例を示して学習させるFew-shot learningは、モデルが提供例に過度に依存し、未知のシナリオへの一般化に失敗するため性能低下を招くと注意を促している。 o1に関する同様の報告は以前にもOpenAIとMicrosoftからなされ、おそらく推論モデル一般に言える。
一方で、例を示さないゼロショット学習の方が安定性を示すと報告されている。 そしてゼロショット学習の安定性を高めるには、 1. 明確化つ簡潔な指示を行う 2. 推論を要するものには段階的に説明させる 3. 構造化された出力形式を指定する(例: JSONの型) 4. 使用言語を明確に指定する などが有効だ。
従来のモデル(GPT-4oなど)では、Few-shotはプロンプトエンジニアリングの基本中の基本として当然のごとく受け入れられてきたので、これが推論モデルではもはや必要ないというのは衝撃的だ。 この分野における特定の知識がいかにすぐに過去のものになるかという良い例だ。 学び続けることが必要だ。
以前のMicrosoftとOpenAIのo1に関する分析はこちら。