山东大学新闻网
山大邮箱 | 投稿系统 | 高级检索 | 旧版回顾

视点首页 > 学术纵横 > 正文

山东大学举行2019大数据与人工智能的数学理论和方法研讨会

发布日期:2019年06月06日 18:21 点击次数:

[本站讯]6月5-6日,“2019大数据与人工智能的数学理论和方法研讨会”在山东大学青岛校区召开。中国科学院院士、中国科学院数学与系统科学研究院研究员马志明,中国科学院院士、中国科学院数学与系统科学研究院研究员郭雷,中国科学院院士、山东大学教授彭实戈,中国科学院院士、南开大学教授张伟平,中国科学院院士、西安交通大学教授徐宗本,中国科学院数学与系统科学研究院、山东大学数学学科师生以及微软公司等三十多位专家学者出席了会议。山东大学数学学院院长、数学与交叉科学研究中心副主任陈增敬教授主持会议。

会上,与会专家分别作了专题报告。马志明院士作了题为“大数据分析的概率统计方法”的报告,他以AlphaGo为例介绍了深度学习与强化学习中的概率统计,从理论角度阐述了5G极化码理论的概率方法在Polar码中的应用,他表示,概率统计的思想和方法已渗透到当今时代的众多科技和社会领域,展现了概率统计学科的无穷魅力。郭雷院士作了“不确定性系统的学习与控制:数据与智能视角”报告,从自适应、学习与反馈、智能体的控制等方面对控制论领域的若干问题进行了细致深入的讲解,结合具体实例,阐明了在实际研究中将经典思想与现代方法相结合的重要性,并表示未来将进一步推进控制理论在交叉领域的深度融合。彭实戈院士以“不确定性数据分析的非线性期望方法”为题作金融数学方向的报告,从理论和实际应用两方面阐述了引入非线性期望理论体系处理经济领域问题的合理性以及先进性,他指出该理论在分析不确定性风险方面具有显著优势,这是金融数学领域的重大突破,将产生革命性变革。徐宗本院士围绕人工智能与数学之间的联系,详细介绍了“人工智能与数学:融通共进”的相关内容,他表示,人工智能势必会成为应用数学的重要方向之一,他提出了人工智能发展中存在的五大基础问题及核心挑战,并就AI在解决适配性、超参数、全局优化等方面取得的卓越成果展开详细论述。

专家分别作了题为“未来网络理论研究中的若干关键问题”、“信道编译码技术和展望”和“Optimizing Deep Neural Networks in G-space”的报告,分别就自己的研究领域阐述现状、凝练问题,提出了基础理论研究的新思路和新方法。他们着重强调了数学在其相关技术研究中的重要作用,并表达了与中国科学院、山东大学进行科研协作的意愿。

山东大学李国君教授和石玉峰教授从实际应用出发,分别以“生物数据分析中的组合最优化方法”和“Applications of Big Data and Machine Learning in Quantitative Investment”为题,就生物信息及机器学习展开论述,通过引用丰富的案例,使与会学者充分感受到数学在实际应用中的作用,体现了数学在学科交叉融合中的重要性和关键性。

中国科学院数学与系统科学研究院的高小山、戴彧虹、张波、闫桂英四位研究员分别在“数学机械化新进展”、“Training GANs with Centripetal Acceleration”、“在线学习算法”和“图神经网络介绍”四个研究方向作了全面阐述,针对其研究课题中存在的缺陷和空白,通过科研团队的不断探索和紧密协作,提出了新的优化算法,拓宽了应用领域。

本次会议由山东大学数学与交叉科学研究中心、山东大学数学学院、山东大学数据科学研究院、中科院国家数学与交叉科学中心联合主办。会议为校研企三方对大数据与人工智能的深入探讨搭建了平台,推动了高校、科研院所研究成果和企业技术孵化的相互促进,加强了数学理论与实际应用的有机融合,加速了学界和业界科研合作互补的步伐。


【供稿单位:数学与交叉科学研究中心    作者:于宁 陈福康 杨媛    摄影:杨媛 资料         编辑:新闻中心总编室    责任编辑:王天弘 蒋晓涵  】

 匿名发布 验证码 看不清楚,换张图片
0条评论    共1页   当前第1拖动光标可翻页查看更多评论

免责声明

您是本站的第: 位访客

新闻中心电话:0531-88362831 0531-88369009 联系信箱:xwzx@sdu.edu.cn

建议使用IE8.0以上浏览器和1366*768分辨率浏览本站以取得最佳浏览效果

欢迎关注山大视点微信