上次写总结还是在2023-9-29, 没想到下次再写竟已经是3个月之后了,到了2023年的最后一天。每到年末,各种APP就喜欢来个xxx年度总结:B站总结、steam总结、网易云音乐总结……不过今天看到一个"新华社年度十大新闻"觉得挺有意思,我就想,能不能给我自己也列一个"年度十大新闻"呢?
论文阅读[粗读]-Alignment For Honesty
上周刷到了刘鹏飞老师的 Alignment For Honesty, 分享给了大家 2023-12-13-insights。里面讲到如何训练LLM变得诚实,他沿用了孔子的定义:
知之为知之,不知为不知,是知(zhì)也。
To say “I know” when you know, and “I don’t know” when you don’t, that is wisdom.
我来一起看看他们是怎么做的吧
Weak-to-Strong Generalization(上): OpenAI是怎么看问题的?
昨天OpenAI一口气更新了两篇论文,暨DALL.E 3之后的又一更新,其中一篇讲述了一个朴素的问题:如果未来的模型超越人类了,我们该怎么给他们提供监督信号?(毕竟我们只有人类——一个相对更弱的模型)
OpenAI把这个问题叫做weak-to-strong generalization在这里做了一些简单的尝试,对于这个问题的性质进行了一些探索。我们来一起学习一下他们看问题和解决问题的思路吧!
论文阅读[精读]-Dataset Cartography: Mapping and Diagnosing Datasets with Training Dynamics
读得论文多了,写的笔记反而更少了……很多篇论文都想写,最后哪个都没写出来。今天来讲讲yejin Choi 2020年的一个论文:如何用模型自己在训练过程中的表现作为自监督信号,衡量训练集中每一条数据的质量?
很难想象这是yejin choi三年前思考的问题,我直到最近读到这篇论文,还觉得思路很新颖、很精妙
LLaVA, LLaVA 1.5和LLaVA-Plus: 讲讲LMM
昨天刷到新挂的LLaVA-Plus的Arxiv论文,讲怎么做多模态的ReACT与训练模型。正好发现LMM(Large Multimodal Model)系列的模型似乎怎么讲过。那么LLaVA系,三篇论文,今天一次说完。
flamingo、Kosmos 2.5下次有时间说啊
OpenAI开发者大会的所有可能结局
众所周知,OpenAI打算在2023/11/6,ChatGPT问世(2022/11/30)大约1一年以后,召开第一届开发者大会,距离现在还有15天。我们不如来大胆预测一下开发者大会可能更新的所有内容吧!即是预测,也是我对OpenAI接下来开发的功能的期望。你觉得哪种结局最有可能呢?
所有图片均由DALL·E 3生成
2023-09-29总结
今天第一次尝试将Arxiv最新论文同步到博客。
扫描Arxiv的工作现在基本每天都做,最开始可能还要追溯到两年多前。曾经用过各种各样的方式完成这件事:
- 最开始是超哥带着大家每天扫描,每人按日期做分工
- 后面一段时间我自己每天刷一刷
- 后来形成习惯了,要写一个飞书文档同步进去,后来觉得太麻烦,最后就不了了之了
从今天开始,试着每天把新扫描到的有趣的论文更新到博客,看看大家的反应如何。可能一个良性的循环是:一方面有人反馈我有遗漏,或者推荐哪篇论文,我就可以仔细看看,或者写一些阅读笔记。