
K.Ishi@生成AIの産業応用
@K_Ishi_AI
Published: January 11, 2025
2
45
253
1/4
03:18 AMo1型のモデル(LRM)の推論プロセスに、効果的にRAGを組み込む新手法が登場した。 この手法では、 - 推論中に知識不足を感知すると自動で検索 - 一貫性のある推論を形成するように情報を整理・統合 することで、根拠ある推論を実現。 強い推論能力を持つo1型の知識不足をRAGで補う良い組み合わせだ。
2/4Continued
03:18 AMこのSearch-o1フレームワークでは、"perhaps"や"likely"などの不確実な表現を検知すると、自律的に検索を行うようにプロンプトで指示している。 モデル自身が推論の自然な流れの中で検索のタイミングを決定でき、またさらなる情報取得の必要性に応じて、反復的に知識収集するという点で画期的だ。
3/4Continued
03:18 AMそして、集められた情報はReason-in-Documentsモジュールにてふるいにかけられる。 ここでは、不要な情報を除去しながら本質的な知識だけを抽出してまとめ、元の推論チェーンに統合する。 この一手間により、従来のRAGより統合される情報のノイズの少なく、高品質な推論チェーンを維持できる。
4/4Continued
03:18 AMこれらの工夫により、特に専門知識と複雑な推論を要する問題への回答性能が向上した。 例えば、マルチホップQAでは従来のRAGと比べ正解率が6%程度改善した。 また、物理分野の問題では人間の専門家の正解率(57.9%)を上回る68.7%を達成するなど、実用的になってきている。 とても有望な手法だ。