今日读两篇论文,遗憾的是,没有编译方面的。
明天就要进度同步了,show me your work! 不能这样下去了,现在就赶w
据了解,今日时隔一个月召开组会,又感觉到了上进的气息。
这篇工作是Diffusion Model关注度高起来的第二篇重要文献。在此之前,DDPM证明Diffusion model可以生成diversity,但score上,比起“专门造假”的GAN还是略显不足,但OpenAI这片新作,证明了Diffusion model有实力生成比GAN优秀的结果。
这篇工作其实就是有名的DALL.E 2的模型结构,只是规模是3.5B(DALL.E是12B)。本篇工作是第一个用diffusion model来做text2image任务的。
今天去北医三院看牙,来回单程只需要40min的高铁,倒是很快。应该是最后一次根管治疗,再观察一段时间就可以做牙冠了。
陈天奇在MLSys 22发的另一篇文章,讲的是如何提高输入不对齐时的表现。
今天来读一篇MLSys的文章,作者提出了JIT的APOLLO框架,可以同时考虑 memory- /compute-bound 的算子优化,比XLA,TensorFlow原生要快不少。
22年ICLR outstanding paper,讲了DPM的逆过程最优均值和方差竟有解析形式?
突然发现好几天没写总结了,今天写一个。
最近几天其实还挺摆的,尤其是快手那边,可以说是毫无进展,连进度同步都推迟了……好消息是我做决定了,
这篇文章是讲机器翻译的,准确来说,是解码策略。作者提到已有很多评测machine translation的方法,但已有的解码大多没有同时考虑这些方法。
本文提出的MBR方法可以: