0%

2023-10-10-insights

今天竟有172篇论文?EMNLP放榜了,大家纷纷挂Arxiv

NEFTune: Noisy Embeddings Improve Instruction Finetuning

作者发现,仅仅在finetune时给embedding添加噪声,竟能大范围提高模型表现?

感觉这里面肯定隐藏着更深层次的原因

FireAct: Toward Language Agent Fine-tuning

作者首次探索了在Agent里引入finetune会带来什么,发现仅仅500条GPT4标注数据就可以让模型在下游任务上获得非常大的提升

EMO: Earth Mover Distance Optimization for Auto-Regressive Language Modeling

作者目标直指crossentropy loss,发现换掉这个,表现猛涨

具体来说作者选择用earth mover distance来表征损失,有点像之前的维因斯坦GAN。