Close

CCF YOCSEF合肥TDS专题探索班--表示学习的理论、算法与应用


发表日期:2018-12-27 作者:郑爱华

CCF YOCSEF合肥TDS专题探索班--表示学习的理论、算法与应用

时间:201915日(星期六)上午900-12:10

地点:安徽大学磬苑校区图书馆文典阁一楼报告厅

主办单位:中国计算机学院(CCF

承办单位:安徽大学计算机科学与技术学院

欢迎各位老师、同学届时前往!

日期

时间

内容

执行主席


08:30-09:00     

签到

  


09:00-09:10

开幕式

  


09:10-10:00

题目:Broad   Learning via Fusion of Heterogeneous   Information for   Recommendations

特邀讲者:Philip S. YuUniversity of Illinois at Chicago

  

15

10:00-10:30

茶歇 & 合影

  

  

赵姝

谢飞

  

  

  

10:30-11:20

题目:语言表示学习

特邀讲者:陈恩红,中国科学技术大学

11:20-12:10

题目:异质信息网络的表示学习与应用

特邀讲者:石川,北京邮电大学

12:10-14:30

午餐 & Poster

14:30-15:20

题目:L21范和迹范在稀疏编码和表示中的应用

特邀讲者:丁宏强,安徽大学/德州大学阿灵顿分校

15:20-15:40

茶歇

15:40-16:30

题目:知识表示与自然语言处理应用

特邀讲者:刘知远,清华大学

16:30-17:20

题目:网络表示学习理论及应用

特邀讲者:唐杰,清华大学

17:20-17:30

总结 & 闭幕式

表示学习(Representation Learning)是机器学习领域一个新的研究热点,旨在将原始数据表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空间中具有表示以及推理的能力,同时可轻松方便地作为机器学习模型的输入,它避免了手动提取特征的麻烦,允许计算机学习使用特征的同时,也学习如何提取特征:学习如何学习。近年来,以深度学习为代表的表示学习技术受到广泛关注,在语音识别、图像分析和自然语言处理等领域取得重要研究进展。

本期CCF YOCSEF合肥将举办TDSTheme Discovery Symposium)专题探索班表示学习的理论、方法及应用,有幸邀请到机器学习领域重量级的专家学者做主题报告,就表示学习理论最新的研究成果和应用进行学术探讨,具体围绕表示学习的前沿探讨,表示学习的理论基础和主要方法,以及表示学习在社交网络、图像分析、自然语言处理等领域的应用展开讨论。我们期望本次论坛能够有效推动机器学习和表示学习理论、技术和应用的发展,增进领域学者间的交流与互动,使参加者在掌握学科基础知识的同时,跟踪本领域最新技术动态,了解未来技术发展趋势。

  

特邀讲者及讲者信息(按报告顺序) : 

特邀讲者Philip S. Yu 美国伊利诺伊大学芝加哥分校教授

Dr. Philip S. Yu is a Distinguished Professor and the Wexler Chair in Information Technology at the Department of Computer Science, University of Illinois at Chicago. Before joining UIC, he was at the IBM Watson Research Center, where he built a world-renowned data mining and database department. He is a Fellow of the ACM and IEEE. Dr. Yu is the recipient of ACM SIGKDD 2016 Innovation Award for his influential research and scientific contributions on mining, fusion and anonymization of big data, the IEEE Computer Society’s 2013 Technical Achievement Award for “pioneering and fundamentally innovative contributions to the scalable indexing, querying, searching, mining and anonymization of big data” and the Research Contributions Award from IEEE Intl. Conference on Data Mining (ICDM) in 2003 for his pioneering contributions to the field of data mining. Dr. Yu has published more than 1,100 referred conference and journal papers cited more than 102,000 times with an H-index of 148. He has applied for more than 300 patents.Dr. Yu was the Editor-in-Chiefs of ACM Transactions on Knowledge Discovery from Data (2011-2017) and IEEE Transactions on Knowledge and Data Engineering (2001-2004).  

In the era of big data, there are abundant of data available across many different data sources in various formats. “Broad Learning” is a new type of learning task, whichfocuses on fusing multiple large-scale information sources of diverse varieties together and carrying out synergistic representation learning and data mining tasks across these fused sources in one unified analytic. Great challenges exist on “Broad Learning” for the effective fusion of relevant knowledge across different data sources, which depend upon not only the relatedness of these data sources, but also the target application problem. In this talk we examine how to fuse heterogeneous information to improve effectiveness on recommendation systems.

特邀讲者陈恩红(中国科学技术大学教授)

简介:陈恩红,博士,教授,博导,国家杰出青年基金获得者,科技部重点领域创新团队负责人,CCF会士。1996年获中国科学技术大学计算机软件专业博士学位。2005年入选教育部新世纪优秀人才支持计划、2015年获安徽省政府特殊津贴,2016年入选安徽省特支计划创新领军人才。现任中国科学技术大学计算机科学与技术学院副院长,语音及语言信息处理国家工程实验室副主任,大数据分析及应用安徽省重点实验室主任。教育部计算机类专业教学指导委员会委员,安徽省计算机学会理事长,中国计算机学会理事、人工智能与模式识别专委会委员、数据库专委会委员、大数据专家委员会委员,中国人工智能学会知识工程与分布智能专业委员会副主任委员、机器学习专委会常务委员。曾任中国计算机学会YOCSEF合肥分论坛首任主席(2011年)。WWW JournalIEEE Transactions on SystemMan and CyberneticsSystem,计算机研究与发展、模式识别与人工智能、计算机应用等国内外学术期刊编委,KDDAAAIICDMPAKDDSDM等重要国际学术会议的程序委员会委员,全国性学术会议NDBC’2012CCDM’2014CNCC’2015等的程序委员会主席等。承担了国家自然科学基金杰出青年基金项目、面上项目、联合重点基金项目,以及863计划、国家重点研发计划课题等项目,以及与诺基亚、阿里巴巴、华为、讯飞的合作项目。在国内外重要学术期刊TKDETKDDTMCTISTTC和数据挖掘领域重要国际学术会议KDDWWWSIGIRICDMNIPSECML-PKDDCIKM等发表学术论文100余篇,获数据挖掘领域顶级会议KDD2008最佳应用论文奖、ICDM2011最佳研究论文奖、SDM2015最佳论文提名奖等,获2012年度教育部自然科学二等奖,多次获得中科院优秀导师奖、中科院朱李月华优秀教师奖。指导的博士生获得中科院、中国计算机学会、中国人工智能学会等的优秀博士论文奖,以及中科院院长中科院院长特别奖、优秀奖等。

要:近年来,以深度学习为代表的表示学习技术受到广泛关注,表示学习是通过机器学习将研究对象的语义信息表示为稠密低维实值向量。自然语言表示学习则通过词,短语以及句子的向量化语义表示进行表示学习。报告首先介绍语言表示学习的原理和基本方法。然后基于深度表示学习的背景,分析语言表示学习目前的研究进展。在此基础上,我们将进一步介绍表示学习在自然语言处理的具体应用,同时,系统介绍我们在语言表示学习方面,尤其是在多源信息表示的相关研究进展。最后,总结语言表示学习目前面临的主要挑战,并对未来运用语言表示学习的方法和趋势进行展望和讨论。

特邀讲者石川(北京邮电大学教授)

:北京邮电大学计算机学院教授、博士研究生导师、智能通信软件与多媒体北京市重点实验室副主任。主要研究方向数据挖掘、机器学习、人工智能和演化计算。近五年来,作为第一作者或通信作者发表高水平学术论文50余篇,英文专著一部,包括数据挖掘领域的顶级期刊和会议IEEE TKDEACM TISTKAISKDDAAAIIJCAISDMCIKM等。获得ADMA2011/AMDA2018国际会议最佳论文奖、CCF-腾讯犀牛鸟基金及项目优秀奖,并指导学生获得顶尖国际数据挖掘竞赛IJCAI Contest 2015 全球冠军。获得北京市高等学校青年英才和师德先锋等称号。

:当前的社会网络分析主要针对同质网络(即网络中结点类型相同),但是现实世界中的网络化数据通常包含不同类型的对象,并且对象之间的关联表示不同的语义关系。构建异质信息网络(即包含不同类型的结点或边的网络)可以包含更加完整的对象之间的关联信息,因此分析这类网络有希望挖掘更加准确的模式。本报告将介绍异质信息网络的基本概念和特点,以及异质网络的复杂结构和丰富语义对数据挖掘带来的挑战。此外,本报告将重点介绍异质网络结构特征的表示学习方法,及其在实际问题上的应用。

特邀讲者:丁宏强德州大学阿灵顿分校任终身教授

介:丁宏强,在美国哥伦比亚大学李政道教授研究小组求学,获博士学位。长期工作于美国加州理工学院,喷气动力实验室,及劳伦斯-伯克利国家实验室。2007年加入德州大学阿灵顿分校任终身教授。研究成果被ScienceNature杂志作为封面介绍和描述。他的研究领域包括数据挖掘,机器学习,信息检索,高性能计算等。从 2000 年开始,他和合作者创立了用矩阵模型作为中心理论和计算方法的子领域,研究PCAK均值聚类的等价性;揭示了非负矩阵分解的聚类功能,导致了非负矩阵分解在无监督学习中的广泛应用;国际上第一次提出矩阵L21范数的概念,现在L21范数已经广泛应用在机器学习,模式识别等领域中。他已发表200余篇高水平论文,被引用37000多次,他发表在IEEE TPAMI上一篇特征选择的论文被引6000多次,多年来长期高居TPAMI最受欢迎(most popular)论文前十位以内。在2018Top 1000 计算机科学家按H指数排名,71位华人学者上榜,丁宏强排名30

L21范数,L12范数,秩范数等理论现在广泛应用在机器学习,数据挖掘,人工智能领域中。我们先从概率选择推导出LASSO模型,再系统性的介绍L21范数、L12范数等稀疏编码特征选择模型和应用,并详细讲解迹范数和Schatten-p范数在数据表示中的模型和应用。

特邀讲者刘知远(清华大学副教授

:刘知远,清华大学计算机系副教授、博士生导师。主要研究方向为表示学习、知识图谱和社会计算。2011年获得清华大学博士学位,已在ACLIJCAIAAAI等人工智能领域的著名国际期刊和会议发表相关论文60余篇,Google Scholar统计引用超过3600次。承担多项国家自然科学基金。曾获清华大学优秀博士学位论文、中国人工智能学会优秀博士学位论文、清华大学优秀博士后、中文信息学会青年创新奖,入选中国科学青年人才托举工程、中国计算机学会青年学者提升计划。担任中文信息学会青年工作委员会执委、副主任,中文信息学会社会媒体处理专委会秘书长,ACLCOLINGIJCNLP领域主席。

:近年深度学习技术席卷自然语言处理(NLP)各大领域。作为典型的数据驱动方法,深度学习面临可解释性不强等难题,如何将人类积累的大量语言知识和世界知识引入深度学习模型,是NLP深度学习模型的发展趋势,同时面临重要挑战。本报告将介绍知识指导的自然语言处理的最新进展与趋势。 

特邀讲者唐杰(清华大学教授

:清华大学计算机系长聘教授、计算机系副主任、清华-工程院知识智能联合实验室主任,获杰青。研究兴趣包括:社会网络分析、数据挖掘、机器学习和知识图谱。发表论文200余篇,引用11000多次(个人h-指数55)。主持研发了研究者社会网络挖掘系统AMiner,收录1.36亿科研人员、2.31亿科技文献,吸引了220个国家/地区800多万独立IP访问。曾担任国际期刊ACM TKDD的执行主编和国际会议CIKM’16WSDM’15的程序委员会主席、KDD’18大会副主席以及IEEE TKDEACM TISTIEEE TBD等期刊编委编委。荣获北京市科技进步一等奖、中国人工智能学会科技进步一等奖、KDD杰出贡献奖。

:这个报告主要包括三个部分:面向网络的表示学习理论(WSDM’18)、针对网络行为的端到端预测模型(KDD’18)以及基于用户反馈的在线学习(NIPS’18)。首先介绍我们在网络表示学习方面的理论分析通过理论分析将已有的几个网络表示学习做了归一化分析,并在此基础上提出基于矩阵分解的表示学习新方法;基于网络表示学习结果,我们进一步提出一种Multi-Head的注意力模型实现了端到端的网络用户行为预测;最后通过用户反馈,实现用户行为预测的在线学习。