単一のLLMから2つのエージェントを作成し自分(たち)で改善させる手法が有効

本記事では、言語モデルの”自己改善”に新しいアプローチを提案する研究を紹介します。 従来の単一モデルによる自己改善では数回の学習で頭打ちになる問題がありましたが、今回複数のモデルを協調させることで継続的な性能向上を実現する手法が開発されました。 その背景には、LLMは既存のインターネット上のデータを使い尽くしていると言われている状況があり、そのため性能向上の新たな方法が必要とされています。 発表者情報 研究者:Vighnesh Subramaniam et al. 研究機関:MIT CSAIL, ハーバード大学, スタンフォード大学, Google DeepMind 本…