这门研究生水平的课程将专注于NLP框架、算法和方法的高级研究,包括语言建模、文本分类、机器翻译和问题回答等最先进的技术。本课程将包括多种编程作业、论文阅读、期中和期末专题。在这门课之前,学生应该至少学习过一门自然语言处理/机器学习的入门课程,并且熟悉Python编程。

本课程包括相关主题的介绍性讲座。这些讲座是和COS 484联合的,请看这里的课程安排。

https://princeton-nlp.github.io/cos484/cos584.html

Date Topics Fri (2/5) Language Models Fri (2/12) Text classification Fri (2/19) Word embeddings Fri (2/26) Feedforward Neural Networks Fri (3/5) Conditional Random Fields Fri (3/12) No meeting (midterm) Fri (3/19) Recurrent neural networks and neural language models Fri (3/26) Dependency parsing Fri (4/2) Machine translation Fri (4/9) Transformers Fri (4/16) Pre-training Fri (4/23) Language Grounding

成为VIP会员查看完整内容
0
44

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

【导读】陈丹琦博士是自然语言处理研究员领域的新星大神,她从斯坦福毕业后,到普林斯顿大学任助理教授。她将深度学习用于一系列自然语言处理重要问题,帮助机器获取知识、更好地回答问题。她开设了COS 598C (Winter 2020)课程,深度学习自然语言处理, Deep Learning for Natural Language Processing,共有21讲,讲解最新NLP进展,非常值得follow。

本课程旨在介绍自然语言处理的前沿深度学习方法。本课程的主题包括词的嵌入/上下文化的词的嵌入、预训练和微调、机器翻译、问题回答、摘要、信息提取、语义分析和对话系统等。我们对每个主题进行了深入的讨论,并讨论了最近关于每个主题的重要论文,包括背景、方法、评价、目前的局限性和未来的发展方向。学生应定期阅读和提交研究论文,并完成一篇期末论文。

学习目标:

本课程旨在为您在自然语言处理方面的前沿研究做准备。我们将讨论在NLP的每个子领域中最有影响力的想法,最先进的技术和我们今天面临的主要问题。

练习你的研究技能,包括阅读研究论文,进行文献调查,口头和书面报告,以及提供建设性的反馈。

成为VIP会员查看完整内容
0
115

课程简介: 本课程将向学生介绍NLP的基础知识,涵盖处理自然语言的标准框架以及解决各种NLP问题的算法和技术,包括最新的深度学习方法。 涵盖的主题包括语言建模,表示学习,文本分类,序列标记,语法解析,机器翻译,问题解答等。

课程安排:

  • 概述与简介
  • 语言模型
  • 文本分类
  • 线性模型
  • 词嵌入
  • 神经网络基础
  • 序列模型
  • EM模型
  • RNN神经语言模型
  • 解析介绍
  • 机器翻译
  • 神经机器翻译
  • 文本词嵌入
  • 问答系统
  • 对话系统
  • 嘉宾讲座

嘉宾介绍:

陈丹琦,普林斯顿大学计算机科学的助理教授,在此之前,是西雅图Facebook AI Research(FAIR)的访问科学家。 斯坦福大学计算机科学系获得博士学位,并在斯坦福NLP集团工作。研究方向:自然语言处理,文本理解、知识解释。

Karthik Narasimhan,普林斯顿大学计算机科学系助理教授,研究跨越自然语言处理和强化学习。

成为VIP会员查看完整内容
0
67

普林斯顿大学在19年春季学期,开设了COS 598D《机器学习优化》课程,课程主要介绍机器学习中出现的优化问题,以及解决这些问题的有效算法。前不久,课程教授Elad Hazan将其精心准备的课程讲义开放了出来,讲义内容详实循序渐进,非常适合想要入门机器学习的同学阅读。

COS 598D:Optimization for Machine Learning(机器学习优化)是普林斯顿大学在19年春季学期开设的课程。课程主要介绍机器学习中出现的优化问题,以及解决这些问题的有效算法。

课程内容涵盖:

  • Introduction to convex analysis
  • first-order methods, convergence analysis
  • generalization and regret minimization
  • regularization
  • gradient descent++:
    • acceleration
    • variance reduction
    • adaptive preconditioning
  • 2nd order methods in linear time
  • projection-free methods and the Frank-Wolfe algorithm
  • zero-order optimization, convex bandit optimization
  • optimization for deep learning: large scale non-convex optimization
成为VIP会员查看完整内容
0
48
小贴士
相关VIP内容
专知会员服务
23+阅读 · 2020年12月11日
专知会员服务
57+阅读 · 2020年11月7日
专知会员服务
39+阅读 · 2020年8月30日
专知会员服务
122+阅读 · 2020年2月3日
专知会员服务
54+阅读 · 2020年1月15日
【课程推荐】普林斯顿陈丹琦COS 484: 自然语言处理课程
专知会员服务
67+阅读 · 2019年12月11日
学习自然语言处理路线图
专知会员服务
56+阅读 · 2019年9月24日
相关资讯
自然语言处理精品资料
人工智能前沿讲习班
14+阅读 · 2019年3月13日
免费自然语言处理(NLP)课程及教材分享
深度学习与NLP
28+阅读 · 2019年1月18日
深度学习自然语言处理阅读清单
专知
20+阅读 · 2019年1月13日
深度学习NLP相关资源大列表
机器学习研究会
3+阅读 · 2017年9月17日
自然语言处理 (NLP)资源大全
机械鸡
35+阅读 · 2017年9月17日
相关论文
Greg Yang,Edward J. Hu
0+阅读 · 5月11日
Rodrigo Nogueira,Kyunghyun Cho
3+阅读 · 2019年2月18日
Contextualized Non-local Neural Networks for Sequence Learning
Pengfei Liu,Shuaichen Chang,Xuanjing Huang,Jian Tang,Jackie Chi Kit Cheung
3+阅读 · 2018年11月21日
Shauli Ravfogel,Francis M. Tyers,Yoav Goldberg
3+阅读 · 2018年9月11日
Neural Architecture Optimization
Renqian Luo,Fei Tian,Tao Qin,Enhong Chen,Tie-Yan Liu
7+阅读 · 2018年9月5日
Bryan McCann,James Bradbury,Caiming Xiong,Richard Socher
5+阅读 · 2018年6月20日
Oluwatobi Olabiyi,Alan Salimov,Anish Khazane,Erik T. Mueller
4+阅读 · 2018年6月11日
Felix Hieber,Tobias Domhan,Michael Denkowski,David Vilar,Artem Sokolov,Ann Clifton,Matt Post
6+阅读 · 2018年6月1日
Sergey Edunov,Myle Ott,Michael Auli,David Grangier,Marc'Aurelio Ranzato
6+阅读 · 2018年5月24日
Abdulaziz M. Alayba,Vasile Palade,Matthew England,Rahat Iqbal
3+阅读 · 2018年2月28日
Top