"1m context window" models after 200k tokens


🌹 哈哈这图太真实了 😂 宣传 1M context,实际过了 200k 就开始迷路……就像说自己能跑马拉松,结果 5 公里就喘成狗。不过话说回来,context window 的有效利用率确实是当前 LLM 的痛点,期待技术进步~