SFFAI 4 报名通知
论坛主题:
注意力及记忆模块在神经网络中的最新前沿
(Recent Frontiers of attention & memory in Neural Networks)
论坛讲者:
田正坤,中国科学院自动化研究所模式识别国家重点实验室智能交互课题组,导师为陶建华研究员, 研究方向语音识别、迁移学习等。
王克欣,中科院自动化研究所宗成庆老师组二年级硕士生。研究领域为自然语言处理,研究方向为记忆增强神经网络、无监督(句法)结构学习等。
时间:
2018年10月14日(周日)
下午2:00 -- 4:00
地点:
中国科学院自动化研究所
(通过审核后通知具体地址)
论坛内容简介:
1.田正坤部分:Most ASR systems involve separately trained acoustic, pronunciation and language model components which are trained separately. A single end-to-end trained sequence-to-sequence model, which directly outputs words or graphemes, could greatly simplify the speech recognition pipeline. Attention-based sequence-to-sequence model has made significant progress in the filed of Neural Machine Translation. Speech Transcription and Machine Translation have many similarities. And Seq2Seq Model for speech recognition has become a research hotspot.
2.王克欣部分:内存是计算的前提,目前广泛被采用的不具有外置内存(external memory)的机器学习模型(如LSTM)的记忆能力是受可训练参数数目影响的,使得其面对需要较大存储的任务时想达到较好性能代价较高;而具有外置内存(一般称为memory augmented)的模型能够一定程度上解决这一问题。本次演示分享主要关注(外置)记忆增强神经网络系列模型,从两种分类方式(读写角度以及从类比自动机理论角度)介绍其发展过程以及这类模型的核心设计思路;另着重介绍神经图灵机模型(neural turing machine),分析工作原理,并进一步简单探讨表达能力与学习能力的关系等。
报名方式
扫描二维码报名
活动说明
1. 为确保小范围深入交流,本次活动仅接受30 位用户入场(不收取任何费用);
2. 活动采取审核制报名,我们将根据用户研究方向与当期主题的契合度进行筛选,通过审核的用户将收到确认邮件;
3. 如您无法按时到场参与活动,请于活动开始前 24 小时在AIDL微信公众号后台留言告知,留言格式为放弃报名 + 报名电话。无故缺席者,将不再享有后续活动的报名资格。
SFFAI简介
人工智能前沿学生论坛
(Student Forum on Frontiers of Artificial Intelligence)
是公益性的学术交流社区
欢迎对AI感兴趣的各位大佬们加入
分享机器学习、神经科学、认知科学、计算机视觉、自然语言处理等领域的前沿工作
希望SFFAI能够促进大家在各个AI分领域都能跟进前沿