本周六下午 14:00 - 16:00,我们将在学堂 112【线下】给大家带来计科 21 班张华清、计科 13 班叶卓睿两位同学的报告。两位同学的报告分别与大模型理论和机器学习可解释性相关。在两位同学报告之间,同学们可以吃零食 and/or 自由交流。
报告 1 摘要
张华清是姚班2022级(计科21)本科生。本次seminar中,他将简要介绍近期大模型理论方面较有代表性的一些工作,包括上下文学习(In-context learning)相关理论、思维链(Chain-of-Thought)理论、mechanistic study相关工作等。此外,他将介绍近期在张景昭老师课题组与姚班2020级毕业生温凯越合作的关于思维链的理论工作。以往的理论研究主要从增强模型表达能力的角度解释思维链如何提升模型的推理能力。而本工作则从优化和泛化的角度,证明在特定synthetic problem上,思维链能指数降低模型的采样复杂度(sample complexity)。本次seminar将侧重于整体思路,而非具体的数学推导,较适合对大模型理论尚不熟悉的听众。
报告 2 摘要
叶卓睿是姚班2021级(计科13)的本科生。本次Seminar他将介绍他在卡耐基梅隆大学春研期间关于强化学习可解释性的工作。当前强化学习中的神经网络策略虽然性能优秀,但往往缺乏可解释性,这限制了其在实际应用中的可信度。虽然概念瓶颈模型为可解释性提供了一个潜在方案,但传统方法需要大量的实时概念标注数据,这在实践中几乎无法实现。针对这一问题,他们提出了LICORICE算法,在多个实验环境中,该方法将所需概念标注数量从传统方法所需的百万量级大幅降低到500个以内(在最复杂的环境中为5000个),同时保持了模型的性能水平。这一工作显著降低了可解释强化学习的实践门槛,为其在对透明度要求较高的现实场景中的应用提供了可能。文章在投于ICLR 2025,此前也在ICML AutoRL、RLC InterpPol等workshop上进行过展示。
欢迎全体同学参加~