Seminar #54

时间: 2023-12-16 14:00-16:00 地点: 学堂 112 + 腾讯会议 seminar

本周六下午 14:00 - 16:00,我们将在学堂 112【线下】给大家带来杨骏昭同学和谭亦钦学长的报告。两场报告分别与 Parallelizing Boosting 和潜在一致性模型(LCM)相关。在两场报告之间,同学们可以吃零食 and/or 自由交流。

  • 报告 1 摘要

    杨骏昭是姚班2020级本科生,研究兴趣是理论计算机科学,近期研究的问题包括计算学习理论,伪随机性和差分隐私。本次Seminar他将介绍他在UC Berkeley春研期间关于Parallelizing Boosting的工作。Boosting是机器学习中的一种集成学习方法,理论上可以将任何比随机猜测好一点的“弱学习器”(例如准确率为51%)转化为任意高准确率的“强学习器”(例如准确率为99%),在理论和实践中都有着重要意义。然而,已知的Boosting算法(例如经典的AdaBoost算法)都是适应性的(adaptive),每一次询问弱学习器都需要依赖于上一次的回答,所以无法使用并行加速。该项工作从理论上研究了Boosting算法的并行复杂度,说明AdaBoost的询问轮数是(几乎)最优的,任何“微小”的并行加速都需要指数多的询问次数。

  • 报告 2 摘要

    谭亦钦是叉院2022级硕士生。本次Seminar他将介绍关于潜在一致性模型(LCM)的研究。LCM是一种新型生成模型,具有依据文本迅速生成图片的能力。近来,扩散模型在文本至图像生成任务上展现出惊人的能力,但其基于多次神经网络推理的采样过程导致生成速度较慢,成为生成模型领域的一大挑战。受到简单图片生成任务上一致性模型(CM)的成功启发,谭亦钦与叉院的其他研究者合作提出使用潜在一致性模型来替代传统扩散模型。LCM旨在直接预测潜在空间中增强概率流常微分方程(PF-ODE)的解,从而减少迭代次数并允许快速、高保真度的采样。LCM的高效性得益于从预训练的无分类器引导扩散模型中提炼而来,一个高质量的768 x 768分辨率的LCM只需32个A100 GPU小时即可训练完成。此外,研究还引入了针对定制化图像数据集的潜在一致性微调(LCF)方法。在LAION-5B-Aesthetics数据集上的评估显示,LCM在几步推理内实现了最先进的文本至图像生成性能。

    欢迎全体同学参加~

  • 【重复一遍时间地点】北京时间本周六 12 月 16 日下午 14:00 - 16:00 学堂 112 点击此处进行时区转换 腾讯会议 901-812-772

联系我们

Make IIIS Great Again!

清华大学姚班研讨会