表示学习的理论、算法与应用专题探索班系列报告会通知

发布时间:2018-12-28

报告时间:2019年1月5日(星期六)上午9:00-12:10

报告地点:安徽大学磬苑校区图书馆文典阁一楼报告厅

主办单位:CCF YOCSEF 合肥

承办单位:安徽大学计算机科学与技术学院

CCF YOCSEF合肥专题探索班-表示学习的理论、算法与应用

安徽大学磬苑校区图书馆文典阁一楼报告厅

日期

时间

内容

执行主席

  

08:30-09:00   

签到

  

  

09:00-09:10

开幕式

  

  

09:10-10:00

题目:Broad Learning via Fusion of Heterogeneous   Information for Recommendations

特邀讲者:Philip S. Yu,University of Illinois at Chicago

  

1月5日

10:00-10:30

茶歇 & 合影

  

  

赵姝

谢飞

  

  

  

10:30-11:20

题目:语言表示学习

特邀讲者:陈恩红,中国科学技术大学

11:20-12:10

题目:异质信息网络的表示学习与应用

特邀讲者:石川,北京邮电大学

12:10-14:30

午餐 & Poster

14:30-15:20

题目:L21范和迹范在稀疏编码和表示中的应用

特邀讲者:丁宏强,安徽大学/德州大学阿灵顿分校

15:20-15:40

茶歇

15:40-16:30

题目:知识表示与自然语言处理应用

特邀讲者:刘知远,清华大学

16:30-17:20

题目:网络表示学习理论及应用

特邀讲者:唐杰,清华大学

17:20-17:30

总结 & 闭幕式

  

欢迎各位老师、同学届时前往!

                       科学技术处

                      2018年12月28日


表示学习的理论、算法与应用专题探索班

表示学习(Representation Learning)是机器学习领域一个新的研究热点,旨在将原始数据表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空间中具有表示以及推理的能力,同时可轻松方便地作为机器学习模型的输入,它避免了手动提取特征的麻烦,允许计算机学习使用特征的同时,也学习如何提取特征:学习如何学习。近年来,以深度学习为代表的表示学习技术受到广泛关注,在语音识别、图像分析和自然语言处理等领域取得重要研究进展。

本期CCF YOCSEF合肥将举办TDS(Theme Discovery Symposium)专题探索班“表示学习的理论、方法及应用”,有幸邀请到机器学习领域重量级的专家学者做主题报告,就表示学习理论最新的研究成果和应用进行学术探讨,具体围绕表示学习的前沿探讨,表示学习的理论基础和主要方法,以及表示学习在社交网络、图像分析、自然语言处理等领域的应用展开讨论。我们期望本次论坛能够有效推动机器学习和表示学习理论、技术和应用的发展,增进领域学者间的交流与互动,使参加者在掌握学科基础知识的同时,跟踪本领域最新技术动态,了解未来技术发展趋势。

  

特邀讲者及讲者信息(按报告顺序)

特邀讲者Philip S. Yu (美国伊利诺伊大学芝加哥分校教授

报告摘要In the era of big data, there are abundant of data available across many different data sources in various formats. “Broad Learning” is a new type of learning task, whichfocuses on fusing multiple large-scale information sources of diverse varieties together and carrying out synergistic representation learning and data mining tasks across these fused sources in one unified analytic. Great challenges exist on “Broad Learning” for the effective fusion of relevant knowledge across different data sources, which depend upon not only the relatedness of these data sources, but also the target application problem. In this talk we examine how to fuse heterogeneous information to improve effectiveness on recommendation systems.

  

特邀讲者陈恩红(中国科学技术大学教授)

报告摘要:近年来,以深度学习为代表的表示学习技术受到广泛关注,表示学习是通过机器学习将研究对象的语义信息表示为稠密低维实值向量。自然语言表示学习则通过词,短语以及句子的向量化语义表示进行表示学习。报告首先介绍语言表示学习的原理和基本方法。然后基于深度表示学习的背景,分析语言表示学习目前的研究进展。在此基础上,我们将进一步介绍表示学习在自然语言处理的具体应用,同时,系统介绍我们在语言表示学习方面,尤其是在多源信息表示的相关研究进展。最后,总结语言表示学习目前面临的主要挑战,并对未来运用语言表示学习的方法和趋势进行展望和讨论。

  

特邀讲者石川(北京邮电大学教授)

报告摘要:当前的社会网络分析主要针对同质网络(即网络中结点类型相同),但是现实世界中的网络化数据通常包含不同类型的对象,并且对象之间的关联表示不同的语义关系。构建异质信息网络(即包含不同类型的结点或边的网络)可以包含更加完整的对象之间的关联信息,因此分析这类网络有希望挖掘更加准确的模式。本报告将介绍异质信息网络的基本概念和特点,以及异质网络的复杂结构和丰富语义对数据挖掘带来的挑战。此外,本报告将重点介绍异质网络结构特征的表示学习方法,及其在实际问题上的应用。

  

特邀讲者:丁宏强德州大学阿灵顿分校任终身教授

报告摘要L21范数,L12范数,秩范数等理论现在广泛应用在机器学习,数据挖掘,人工智能领域中。我们先从概率选择推导出LASSO模型,再系统性的介绍L21范数、L12范数等稀疏编码特征选择模型和应用,并详细讲解迹范数和Schatten-p范数在数据表示中的模型和应用。

  

特邀讲者刘知远(清华大学副教授

报告摘要:近年深度学习技术席卷自然语言处理(NLP)各大领域。作为典型的数据驱动方法,深度学习面临可解释性不强等难题,如何将人类积累的大量语言知识和世界知识引入深度学习模型,是NLP深度学习模型的发展趋势,同时面临重要挑战。本报告将介绍知识指导的自然语言处理的最新进展与趋势。

  

特邀讲者唐杰(清华大学教授

报告摘要:这个报告主要包括三个部分:面向网络的表示学习理论(WSDM’18)、针对网络行为的端到端预测模型(KDD’18)以及基于用户反馈的在线学习(NIPS’18)。首先介绍我们在网络表示学习方面的理论分析—通过理论分析将已有的几个网络表示学习做了归一化分析,并在此基础上提出基于矩阵分解的表示学习新方法;基于网络表示学习结果,我们进一步提出一种Multi-Head的注意力模型实现了端到端的网络用户行为预测;最后通过用户反馈,实现用户行为预测的在线学习




返回原图
/