ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果

LLMをファインチューニングしたとき、幻覚(ハルシネーション)誤った情報の生成にはどう影響するのかが調査されました。指示に従うタスクや人間のフィードバックを通じて、望ましい行動をとるように調整することを「微調整」または「ファインチューニング」と呼びます。 参照論文情報 タイトル:Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations? 著者:Zorik Gekhman, Gal Yona, Roee Aharoni, Matan Eyal, Amir Feder, Roi Reichart, Jonathan Herzig…