报告人:许志钦 副教授(上海交通大学)
报告内容:
本报告关注现象驱动的深度学习的基础研究,将汇报频率原则、凝聚现象等常见现象,理解为什么 神经网络会在过参数化下呈现好的泛化能力。进一步,在凝聚现象的基础上,我们讨论模型初始化对 Transformer网络的推理能力的影响。在应用层面,我们讨论基于神经网络算法加速燃烧的模拟。
报告人简介:
许志钦,上海交通大学自然科学研究院/数学科学学院长聘教轨副教授。2012年 本科毕业于上海交通大学致远学院。2016年博士毕业于上海交通大学,获应用数 学博士学位。2016年至2019年,在纽约大学阿布扎比分校和柯朗研究所做博士 后。在深度学习基础研究方面,与合作者共同发现深度学习中的频率原则、参数 凝聚和能量景观嵌入原则,发展多尺度神经网络、设计锚函数研究Transformer网 络机理等。在AI for Science,主要是在燃烧化学反应方面,与合作者共同发展基于 深度深习的机理简化方法和基于深度学习的替代模型加速燃烧模拟。发表论文于 TPAMI, JMLR,AAAI,NeurIPS,ICLR,SIMODS,CiCP, JCP, Combustion and Flame等学术期刊和会议。现为Journal of Machine Learning的managing editor之一。
主持人:赵耀民 研究员(北京大学应用物理与技术研究中心)
时 间:2024年5月16日(周四)12:00
地 点:北京大学工学院1号楼210会议室
Copyright: Center for Applied Physics and Technology, Peking University Room 402, Engineering Building 1, Peking University, Bejing, 100871, China
Tel: 86-10-62753944 E-mail: ganqiumei@pku.edu.cn