叶海山 工作单位:西安交通大学管理学院 系 别:信息系统与智能商务系 职 称:副教授(长聘) 研究方向:机器学习与大数据,及其与管理学交叉 教育背景 2014.09-2018.06 上海交通大学 计算机科学与技术/博士 导师:邓小铁,张志华 工作经历 2021.01 至今 西安交通大学管理学院 助理教授/副教授 2018.07-2021.01 香港科技大学 博士后 导师:张潼 科研项目 主持科研项目:国家自然科学基金青年项目、陕西省高层次人才引进计划(青年项目)、 中国博士后科学基金第 70 批面上资助二等。 参与科研项目:国家重点研发计划等 主讲课程 《机器学习与大数据分析》 《最优化理论》 学术论文 在 JMLR、MP、TNNLS、PR 优化和人工智能杂志及 NuerIPS、ICML、ICLR、CVPR、AAAI、AISTAST 等人工智能顶级会议 上发表多篇论文,担任 JMLR、TPAMI、TSP、SIAM Opt、SIAM Data 杂志及 NuerIPS、ICML、ICLR 审稿人。代表性工作 有六 篇,5 篇发 表在 Journal of Machine Learning Research (JMLR,机 器学习 顶刊 ),一 篇发表 在 Mathematical Programming(MP,优化顶刊)。主要的研究内容包括随机牛顿法、拟牛顿法、去中心分布式算法的研究。 1. 随机牛顿法(两篇论文) Haishan Ye, Luo Luo, ZhihuaZhang;Approximate Newton methods;JMLR Haishan Ye, Luo Luo, ZhihuaZhang;Nesterov's Aceleration forApproximate Newton;JMLR 第一项工作给出了当前最优的随机牛顿方法的收敛性分析,解决了之前理论无法精确刻画随机牛顿法收敛性质的困 境,给出了各因素对随机牛顿法的收敛率影响的精确刻画。第二项工作第一次将加速技术引入到二阶优化算法中,该 方法进一步降低随机牛顿法单次迭代的计算量,同时可以保证算法仍然具有快速收敛的性质。该工作将牛顿法的适用 范围扩展到处理在高维问题中。 2. 拟牛顿法(两篇论文) Dachao Lin, Haishan Ye*, ZhihuaZhang;Explicit convergence rates ofgreedy and random quasi-Newton methods;JMLR Haishan Ye, Dachao Lin, XiangyuChang, Zhihua Zhang;Towardsexplicit superlinear convergence rate for SR1; MP 我们的工作主要集中在拟牛顿法这一经典方法的显式收敛率问题上,该问题是运筹优化领域的一个长期开放性问题。 我们的工作解决了部分重要的问题,给出了贪婪和随机拟牛顿法的当前最优显式超线性收敛速率,解决了优化领域著 名学者 Nesterov(2023 世界顶尖科学家协会奖、2009 冯诺依曼奖获得者)留下的开放性问题。第二项工作改进了传 统的 SR1 算法,经过简单的改进,改进后 SR1 算法也可以得到超线性收敛,并且我们的工作也可以给出显式的超线性 收敛率。 3. 去中心分布式算法(两篇论文) Haishan Ye, Tong Zhang;DeEPCA: Decentralized exact PCA with linear convergencerate;JMLR Haishan Ye, Luo Luo, Ziang Zhou,Tong Zhang; Multi-Consensus Decentralized Accelerated Gradient Descent; JMLR 第一项工作给出了第一个实用的去中心分布式PCA 算法,该方法一改以往算法每轮迭代需要逐步增加通信次数的弱 点,该算法每次迭代只需要少量固定的通信次数。因此大大提升了算法的通讯效率,并且克服了之前算法调参困难的 问题。第二项工作提出了首个和全局条件数相关的近似最优去中心算法,大大提升了算法的收敛速率,并且解决了机 器学习著名学者 Francis Bach 留下的开放性问题。
|