主题
长上下文问题关注模型如何看更长的输入。
sliding window attention
memory compression
recurrent memory
误区
上下文窗口大,不等于模型真的能稳定利用这么长的上下文。