Seminar #53

时间: 2023-12-09 14:00-16:00 地点: 学堂 112 + 腾讯会议 seminar

本周六下午 14:00 - 16:00,我们将在学堂 112【线下】给大家带来周任飞同学和李恬教授的报告。两场报告分别与数据结构和机器学习相关。在两场报告之间,同学们可以吃零食 and/or 自由交流。

  • 报告 1 摘要

    周任飞是姚班2020级(计科02)本科生,他的主要研究方向是数据结构与矩阵乘法,曾在理论计算机科学顶级会议FOCS/SODA上发表五篇论文。本次seminar他将带来关于空间高效数据结构(space-efficient data structures)的教程讲座(tutorial session)。数据结构研究如何高效存储数据以便快速修改与查询信息,是整个计算机科学中历史最悠久的话题之一。空间高效数据结构作为一个子领域,研究如何在不牺牲时间效率的前提下将空间使用量压缩到极致,在理论和实践两方面均有重大意义:理论中,它揭示通讯(communication)与计算(computation)的内在联系;实践中,它帮助数据库、网络、计算生物学等多个领域节约成本。本教程面向零基础的同学,旨在通俗易懂地介绍空间高效数据结构的核心思维方式,以及一些最基础的问题与技巧。

  • 报告 2 摘要

    李恬教授是Meta FAIR Labs的博士后研究员,并将在2024年入职芝加哥大学的助理教授。她博士毕业于卡耐基梅隆大学,研究兴趣包括分布式优化,联邦学习,可信机器学习,特别是principled and scalable approaches for learning across diverse data sources。为了构建合理的数据经济并保护数据隐私,从分散且异质的数据源中不加以集中地进行训练是关键所在。联邦学习的目标就是通过以网络连接的大量设备乃至独立的组织在保留数据在本地的情况下完成训练。然而联邦网络会带来许多独特的挑战,诸如过高的通讯负担,隐私约束,数据与系统的异质性等等。通过由联邦学习应用中获取的灵感,李恬教授的工作致力于提出严格的方法来完成异质网络中可扩展、可信的学习。她将论述异质性如何影响优化,以及为何会成为正确性,可信性的关键。她也会讨论可信性的目标函数以及联邦学习以外普遍的机器学习问题的优化方式。在最后,她会展望在优化与保护隐私的机器学习上的研究计划。个人主页:https://www.cs.cmu.edu/~litian/。

    欢迎全体同学参加~

  • 【重复一遍时间地点】北京时间本周六 12 月 9 日下午 14:00 - 16:00 学堂 112 点击此处进行时区转换 腾讯会议 813-144-275

联系我们

Make IIIS Great Again!

清华大学姚班研讨会