7. 参考︓LLMのコンテキスト理解
下記に注意してBLOしましょう。
出典: Lost in the Middle: How Language Models Use Long Contexts
https://arxiv.org/abs/2307.03172
関連情報が入力文脈の始めや終わりにある場合、パフォーマンス
はしばしば最高になることがわかりました。モデルが長い文脈の
中間で関連情報にアクセスしなければならない場合、パフォーマ
ンスは大幅に低下します。
入力文脈が長くなるとパフォーマンスは大幅に低下し
ます。