2024-05-13-insights 发表于 2024-05-13 更新于 2024-08-09 分类于 Arxiv-Insights 阅读次数: Valine: 本文字数: 209 阅读时长 ≈ 1 分钟 Can Perplexity Reflect Large Language Model's Ability in Long Text Understanding? 一个ICLR的tiny paper,作者认为在长文本建模任务中ppl其实不能代表什么:因为语料的问题,预测next-token在很大程度上只能反映局部的识别能力。作者通过实验也发现了这个现象 从这个角度思考,是不是说明对于更好的长文本理解任务,我们应该使用一些非ppl的loss? 相关文章 本月更新(Recent Update) arxiv-insights 2024-12-20-insights 2024-12-19-insights 2024-12-18-insights