0%

2024-02-07-insights

RAP: Retrieval-Augmented Planning with Contextual Memory for Multimodal LLM Agents

这个 rap 不是之前 CoT+mcts 那个 RAP,这个讲的是如何结合 MLLM Agent + RAG,或者说 voyager 里面用的那个 "skill set"。作者发现这种简单的改进可以把 ALFWorld 等任务的效果提升很多

SELF-DISCOVER: Large Language Models Self-Compose Reasoning Structures

google 的新工作:如果让模型首先根据问题在几种推理模式中 (CoT、direct answer 等) 选择,然后根据选择的模式进行推理,会发生什么?作者发现这种方法比 CoT 的效果要好 40%

什么,竟然是,in-context orca2!!

顺便还要宣传一波 t4d 数据集是吧…… 不过这个我确实觉得也挺好的,除了没人引用……

Scaling Laws for Downstream Task Performance of Large Language Models

stanford 的论文:目前的研究探索了 pretrain 中的 scaling-law。然而,finetune 阶段是否也存在 scaling-law 呢?具体来说,pretrain 资源指数增长,finetune 以后得效果是不是也可以线性增长呢?

作者在翻译任务中基本证实了这个观点

Powered By Valine
v1.5.2