Stanford CS224d 是怎样的一考研考几门课程

为何DL在NLP效果并不是特别好但是Stanford却开设cs224d这门课? - 知乎402被浏览17168分享邀请回答#########日更新##############
我把cs224d的代码 和 cs231n 的代码上传到了github上, 有需要的可以参考下。
不过代码没有注释 也没有说明, 大家看看就好。
/PDFangeltop1
################################
个人感觉DL现在在NLP界越来越成为不可或缺的方法。
尤其在NLP领域应用比较多的模型, Recurrent Neural Network,LSTM(应用在语言模型,句子生成,机器翻译)
Recursive Neural Network(应用在parsing,情感分析,QA system), word2vec。。。
甚至在cv领域很火的CNN在NLP中也用应用,比如计算句子向量。
说句极端的话,原来NLP中的几乎所有经典问题(分词,词性标注,SRL,机器翻译。。)
都可以用DL的手法来实现,并且都能达到甚至超过原来的benchmark甚至达到新的
state of the art。具体可以看看NLP from scratch 这篇论文。其实感觉说DL的手法有些不专业,
在NLP领域应该叫 representation learning 或者 embedding。
而且现在NLP领域 有一个方向就是在NLP和CV结合的地方做文章,比如给一幅图
生成描述这幅图的句子什么的。。。个人对这个领域很感兴趣!。
另外本人强烈推荐把这门课过一遍, 不仅仅是video和slide,
请一定要把三个assignments 都写完
请一定要把三个assignments 都写完
请一定要把三个assignments 都写完。
这三个assignments 其实就是让你把Word2vec,简单Neural Network,Recurrent NN,
Recursive NN,都实现一遍(不用怕,里面有很多提示,你只要一步步跟着做就好)。
都做完,你对现阶段DL在NLP的应用应该会有一个不错的认识了。
本人从今年八月份开始做,到现在基本都完成了,感觉受益匪浅。
6316 条评论分享收藏感谢收起192 条评论分享收藏感谢收起查看更多回答作业内容翻译:@胡杨() && @ && Fantzy同学
校正与调整: &&
时间:2016年7月
说明:本文为斯坦福大学CS224d课程的中文版内容笔记,已得到斯坦福大学课程@Richard Socher教授的授权翻译
原本打算把作业和答案做个编排,一起发出来给大家看,无奈代码量有点大,贴上来以后文章篇幅过长,于是乎题目的代码解答放到了,欢迎自行下载和运行或者调整。
1. Tensorflow 与 softmax(20分)
在本题中,我们会执行一个线性分类器,并会用到下面的交叉熵损失函数:
Jsoftmax-CE(W)=CE(y,softmax(xW))
(请注意,这里行x的是行特征向量)。我们会通过Tensorflow 的自动微分功能来训练数据。
在脚本q1_softmax.py中,通过TensorFlow来构造softmax 函数。softmax的公式如下:
softmax(x)i=exi∑jexj
请注意,你不能使用Tensorflow内建的tf.nn.softmax函数或者其他相关内建函数。这道题目做好的标准是你能够通过运行python q1_softmax.py命令将这个函数跑起来(需要跑通一个测试用例。当然,不要求完全详尽的测试。)
b. (4分)
在脚本q1_softmax.py中,通过TensorFlow来构造交叉熵损失函数(Cross Entropy Loss)。交叉熵损失函数的公式长这个样子:
CE(y,y?&)=-∑i=1Ncyilog(y?&i)
在这里 y∈R5 是一个one-hot标签向量,Nc是所有类目的数量。请注意,你不能使用Tensorflow内建的cross-entropy函数或者其他相关内建函数。这道题目做好的标准是你能够通过运行Python q1_softmax.py脚本将这个函数跑起来(需要写一个测试用例。当然,这同样不要求完全详尽的测试。)
c. (4分)
请仔细学习model.py脚本中的model类。并简要解释一下其中占位符变量 (place holder vaiables)和填充字典(feed dictionaries)函数的目的. 在q1_classifier.py中填充好add_palceholders和creat_feed_dict这两个函数.
提示: 请注意配置变量(configuration variables)在config类中已经储存好了,而在代码中你会用到它们。
答案:在Tensorflow 计算图中,占位符变量是作为其输入节点而存在的。而填充字典函数说明了在计算的时候怎么给这些占位符(或者其他)变量赋值。
d. (4分)
在脚本ql_classifier.py中的add_model函数里完成一个用softmax进行分类的基本流程。并在同一个脚本中的函数add_loss_op中补充好交叉熵损失函数。 请注意,使用本题之前提供的函数,而不是 Tensorflow 内建函数。
e. (4分)
在脚本ql_classifier.py中填充完成add_training_op 函数。 并解释为什么Tensorflow 的自动微分功能能省去我们直接求梯度的工作。你可以在我们提供的数据上顺利运行python ql_classifier.py命令,并且确保能够跑通测试用例。这样你才能保证你的模型是合适的。
提示:请一定要使用在config类中定义的学习率.
答案:只要正确定义好了计算图,Tensorflow就能自动应用反向传播算法来计算梯度。
2. 神经网络在命名实体识别中的应用(35分)
这一节中,我们会练习反向传播算法和训练深度神经网络,通过它们来实现命名实体识别。命名实体识别是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。
这其实就是一个5类分类问题(5选1的单选题)。这5类包括上面这4类和1个非实体类——也就是不代表任何实体的类(大部词语都属于这类)。
这个模型是一个单隐藏层神经网络,它有一个类似我们在word2vec中看到的表示层。 这里我们不需要求平均值或者抽样,而是明确地将上下文定义为一个“窗口”,这个“窗口”包含目标词和它左右紧邻的词,是一个3d维度的行向量:
x(t)=[xt-1L,xtL,xt+1L]∈R3d
这里的xt-1,xt,xt+1是one-hot行向量(|V|维),而L∈R|V|×d是嵌入矩阵,它的每一行Li其实就代表一个特定的词i。我们然后做如下预测:
h=tanh(x(t)W+b1)
y?&=softmax(hU+b2)
之后通过交叉熵损失函数来评估误差:
J(θ)=CE(y,y?&)=-∑i=15yilog(y?&i)
为了计算整个训练集的损失,我们在对每个训练样本计算J(θ)之后将其求和(或者求平均值)。
对于本题,令d=50作为词向量的长度。3个向量组成了一个宽度为3×50=150的窗口。隐藏层有100个神经元,输出层有5个神经元.
(5分)请计算损失函数J(θ)在下列模型各个参数上的梯度
,这里矩阵的维度分别是
U∈R100×5
W∈R150×100
提示:为了能够清晰的表示反向传播的过程,我们给您推荐两个小trick:
使用激活函数的值来代替激活函数的微分。就像作业1中的sigmoid函数一样,下面这个函数也可以起到相同的作用。
tanh(z)=2sigmoid(2z)-1
使用“残差向量”的形式来表示某一层的梯度。这意味着我们的链式法则,现在可以写成用括号括起来的向量(矩阵)乘法的形式,这将使您的分析过程大大简化。
值得注意的是,损失函数在模型各参数上的梯度应该化简到可以使用矩阵运算的形式。(通过作业1,相信您已经掌握的很熟练了:))
由提示公式可得:
tanh′(z)=4sigmoid(2z)(1-sigmoid(2z))
可得偏微分如下:
?J?U=hT(y-y?&)
?J?b2=y-y?&
?J?h=(y-y?&)UT
?J?W=(x(t))T(?J?h?tanh′(2(x(t)W+b1)))
?J?b1=(?J?h?tanh′(2(x(t)W+b1)))
?J?x(t)=(?J?h?tanh′(2(x(t)W+b1)))WT
我们令i=xt,j=xt-1,k=xt+1,可得:
?J?x(t)=[?J?Li,?J?Lj,?J?Lk]
(part b)(5分)
神经网络的训练过程往往不是一帆风顺的,许多小问题都会影响模型的性能,例如神经网络中参数过多会导致训练太慢,神经元之间相关性太强会导致模型陷入局部最优。为了避免上述两种情况的发生,我们在(part a)损失函数的基础上增加一个高斯先验。可别小看这个高斯先验,它能使我们的模型参数/权重不会有那么夸张的幅度(更向0值靠拢),同时又能保证大部分参数都有取值(不会对起作用的特征产生太大影响),从而保证了模型在实际场景中的可用性(泛化能力强一些)。混合后的损失函数就长这样。
Jfull(θ)=J(θ)+Jreg(θ)
有了混合损失函数,下面就可以开始将似然函数求最大化了(就像上面我们对交叉熵求最大化那样),高斯先验在这个过程中就会变成一个平方项的形式(L2正则化项)。
Jreg(θ)=λ2????∑i,jW2ij+∑i′,j′W2i′j′????
要对似然函数求极大,我们所采用的方法是梯度上升,所以本题的任务还是请您来求一下梯度。与(part a)中不同的是,我们这里的损失函数多了一个由高斯先验得来的正则化项。所以,聪明的你,给我个答案吧。
?Jfull=?J+?Jreg
?Jreg?W=λW
?Jreg?U=λU
将W和V的梯度代入即可。
(part c)(5分)
在part b中我们了解到,如果神经元之间的相关性太强,模型就容易陷入局部最优,从而降低了模型的泛化能力。对此,我们的解决方法是使用L2正则化项对模型参数加以限制。在本题中,我们提供另外一种方法,叫做“参数随机初始化”。在众多参数随机初始化的方法中,我们使用最多的是Xavier方法。
Xavier方法的原理是这样的:给定一个m×n的矩阵A和一个区间[-?,?],从该范围中进行均匀采样作为Aij,其中?=6??√m+n??????√
好了,根据算法原理,请你在q2_initialization.py的xavier_weight_init中,用代码来实现一下吧。
(part d)(20分)
在q2_NER.py中,我们实现了一个命名实体窗口(NER Window)模型。模型的输入是sections(小编注:sections在特定情况下可以看作是一句查询,每个section由一些tokens组成,即分词),输出就是命名实体的标签。您可以看一下代码,您刚刚推导的反向传播过程在代码中已经被实现了,是不是很神奇!?
以下工作需要您来完成:
您需要在q2_NER.py中实现命名实体窗口模型部分的代码,我们会根据算法正确性和程序是否可执行来进行打分。
您需要说明模型最佳的参数的值,主要有正则化项、特征维度、学习速率和SGD批量的大小等。您还需要说明模型在交叉验证集上的误差,本课程要求模型在交叉验证集上的误差不高于0.2。
您需要将测试集的预测结果保存在q2_test.predicted文件中,格式为一行一个label,我们会根据真实结果来评估您模型的泛化能力。
提示1:在debug模式中,请将参数max_epchs设为1,并且将load_data中debug参数设为True。
提示2:请注意程序的时间复杂度,保证在GPU上不超过15分钟,CPU上不超过1小时。
3.递归神经网络:语言建模(45分)
在这一节,你将首次实现一个用于建立语言模型的递归神经网络。
语言模型的建立是NLP技术的核心部分,语言模型被广泛使用于语音识别,机器翻译以及其他各类系统。给出一串连续的词x1,…,xt,关于预测其后面紧跟的词xt+1的建模方式是:
P(xt+1=υj|xt,…,x1)
其中,υj是词库中的某个词。
你的任务是实现一个递归神经网络,此网络利用隐层中的反馈信息对“历史记录”xt,xt-1,…,x1进行建模。关于t=1,…,n-1形式化的表示如文献[3]所描述:
e(t)=x(t)L(10)
h(t)=sigmoid(h(t-1)H+etI+b1)(11)
y?&(t)=sigmoid(h(t)U+b2)(12)
P?(xt+1=υj|xt,…,x1)=yj^(t)(13)
其中,h(0)=h0∈RDh是隐藏层的初始化向量,x(t)L是以x(t)为one-hot行向量与嵌入矩阵L的乘积,这个one-hot行向量就是当前处理词汇的索引。具体的一些参数设置如下:
L∈R|V|×dH∈RDh×DhI∈Rd×Dhb1∈RDhU∈RDh×|V|b2∈R|V|(14)
其中,L是词嵌入矩阵,I是输入词表征矩阵,H是隐藏转化矩阵,还有U是输出词表征矩阵。b1,b2是偏置值。d是词嵌入的维数,|V|代表词库的规模,然后Dh是隐层的维数。
输出向量y?&(t)∈R|V|是面向整个词库的概率分布,我们需要最优化交叉熵(非正则化的)的损失率:
J(t)(θ)=CE(y(t),y?&(t))=-∑i=1|V|y(t)ilogy?&(t)(15)
其中,y(t)是与目标词(这里表示为xt+1)对应的one-hot向量。正如注释[2]所描述的,它是一个对于单个样本点的损失率,然后我们对序列中全部样例的交叉熵损失值做求和(或求平均)计算,对数据集中的全部序列[4]均采取上述操作以衡量模型的性能。
通常地,我们使用困惑度来评估语言模型的性能,其定义形式如下:
PP(t)(y(t),y?&(t))=1P?(xpredt+1=xt+1|xt,…,x1)=1∑∑|V|j=1y(t)j?y?&(t)(16)
即通过模型分布P?得到词预测正确的逆概率。给出你是如何从交叉熵的损失率中得到困惑度的(提示:不要忘了向量y(t)是one-hot形式的!),因此如果要进行最小化操作(从算术上)意味着(从几何上讲)交叉熵损失率将被最小化,就得到了在训练集上的困惑度。在这一部分要处理的是一个非常短小的问题-所以并不需要过大的困惑度!
对于一个词库|V|中的词汇,如果你的模型做出的预测是完全随机的,你将如何预测你的困惑度呢?计算词库规模为|V|=2000和|V|=10000时对应的交叉熵损失率,并且将其作为基准牢记于心。
解答:使用的样例y(t)为one-hot模型,且假定y(t)i是y(t)中唯一的非零元素。于是,记:
CE(y(t),y?&(t))=-logy?&(t)i=log1y?&(t)
PP(t)(y(t),y?&(t))=1y?&(t)i
因此,上式可以被联立为如下形状:
CE(y(t),y?&(t))=logPP(t)(y(t),y?&(t))
这条公式展示了交叉熵在数学意义上的最小化目标,同时表达了困惑度在几何意义上的最小值。当模型的预测值完全随机化时,会有E[y?&(t)i]=1|V|。所给的向量y(t)是one-hot模型,所对应困惑度的期望值是|V|。由于困惑度的对数即为交叉熵,那么交叉熵的期望值在面对上述两个词库规模时分别应为log2000≈7.6和log10000≈9.21。
正如注释[2]所描述的操作,在时刻t关于单点全部模型参数的梯度计算如下:
?J(t)?U?J(t)?b2?J(t)?Lx(t)?J(t)?I∣∣∣(t)?J(t)?H∣∣∣(t)?J(t)?b1∣∣∣(t)
其中,Lx(t)是词嵌入矩阵L中对应到当前处理词汇x(t)的列,符号|(t)表示时刻t该参数的显式梯度。(同样地,h(t-1)的取值是固定的,而且你现在也不需要在早先的迭代时刻中实现反向传播算法——这是c小节的任务)。
此外,还要计算代表前趋隐层权值的导数:
?J(t)?h(t-1)
解答:调用函数ddzsigmoid(z)=sigmoid(z)(1-sigmoid(z))。
?J(t)?U=(h(t))T(y-y?&)
?J(t)?h(t)=(y-y?&)UT
?J(t)?b2=(y-y?&)
?J(t)?b1∣∣∣(t)=(?J(t)?h(t)⊙sigmoid′(h(t-1)H+e(t)I+b1))
?J(t)?Lx(t)=?J(t)?e(t)=?J(t)?b1∣∣∣(t)IT
?J(t)?I∣∣∣(t)=(e(t))T?J(t)?b1∣∣∣(t)
?J(t)?H∣∣∣(t)=(h(t-1))T?J(t)?b1∣∣∣(t)
?J(t)?h(t-1)=HT?J(t)?b1∣∣∣(t)
下面为一步迭代的网络框图:
绘制下面三次迭代所“展开”的网络,并且计算迭代时后向传播的梯度:
?J(t)?Lx(t-1)?J(t)?H∣∣∣(t-1)?J(t)?I∣∣∣(t-1)?J(t)?b1∣∣∣(t-1)
这里|(t-1)代表模型参数在(t-1)时刻的显式梯度。由于这些参数在前馈计算中要被多次使用,我们需要在每次迭代时都计算一下它们的梯度。
最好参考讲义[5]所描述的后向传播原理去将这些梯度表达成残差的形式:
δ(t-1)=?J(t)?h(t-1)
(同样的表达方式在迭代时刻t-2,t-3以及更多的时候都同样适用)。
注意一个训练样本的实际梯度是需要我们将直到t=0时刻的整条后向路径都使用后向传播算法迭代完成后才能得到的。在练习中,我们通常只需截取固定数值\tau\approx3-5τ≈3-5的后向传播步骤即可。
还是延续前一节的条件
\left.\frac{\partial{J^{(t)}}}{\partial{b_1}}\right|_{(t-1)}=\delta^{(t-1)}\odot\mathrm{sigmoid}^{'}(h^{(t-2)}H+e^{(t-1)}I+b_1)?J(t)?b1∣∣∣(t-1)=δ(t-1)⊙sigmoid′(h(t-2)H+e(t-1)I+b1)
\frac{\partial{J^{(t)}}}{\partial{L_{x^{(t-1)}}}}=\left.\frac{\partial{J^{(t)}}}{\partial{b_1}}\right|_{(t-1)}I^T?J(t)?Lx(t-1)=?J(t)?b1∣∣∣(t-1)IT
\left.\frac{\partial{J^{(t)}}}{\partial{I}}\right|_{(t-1)}=(e^{(t-1)})^T\left.\frac{\partial{J^{(t)}}}{\partial{b_1}}\right|_{(t-1)}?J(t)?I∣∣∣(t-1)=(e(t-1))T?J(t)?b1∣∣∣(t-1)
?J(t)?H∣∣∣(t-1)=(h(t-2))T?J(t)?b1∣∣∣(t-1)
对于给定的h(t-1),执行一轮前向传播计算J(t)(θ)需要多少操作?执行一轮后向传播又会如何呢?执行τ轮呢?对于维度参数组d,Dh和|V|,使用符号“大写-O”来表示你的答案(如公式14)。是否该慎重考虑这一步?
回忆各个参数的设置:h(t-1)大小为Dh,e(t)大小为d,还有y?&(t)的大小为|V|。计算e(t)花费的时间O(d)视矩阵L而定。计算h(t)花费的时间O(D2h+dDh),计算y?&(t)花费时间O(Dh|V|)。后向传播和前向传播算法具有相同的时间复杂度,于是,计算τ轮的前向或后向传播复杂度仅通过τ与先前得到的复杂度值相乘即可。由于|V|比较大的原因,计算y?&(t)的“较慢的一步”计算需花费时长O(Dh|V|)。
(e) (20分)
在代码q3_RNNLM.py中实现以上的模型。其中已经实现了数据加载器和其它的初始化功能代码。顺着已有代码的指引来补充缺失的代码。执行命令行python q3_RNNLM.py将运行该模型。注意,在运行过程中你不能用到tensorflow库的内置函数,如rnn_cell模块。
在ptb-train数据集中训练该模型,其中包含Penn Treebank中WSJ语料集的前20节语料。正如在Q 2部分中所说的,你应该最大限度地提高该模型在实际生产中数据集上的泛化性能(即最小化交叉熵损失率)。关于模型的性能,我们将通过未知但类似的句子集来进行评估。
撰写实验报告的一些要求:
在你实验报告中,应包括最优超参数(如训练框架、迭代次数、学习率、反馈频率)以及在ptb-dev数据集上的困惑度。正常情况应当保持困惑度值低于175。
在报告中还应当包含最优模型的相关参数;方便我们测试你的模型。
提示:在调试过程中把参数max_epochs的值设为1。在_init_方法中通过设置参数关键字debug=True来开启对load_data方法的调用。
提示:该模型代码在GPU上运行很快(低于30分钟),而在CPU上将耗时多达4小时。
作业1和该作业中的q2部分所示的神经网络是判别模型:他们接收数据之后,对其做出预测。前面你实现的RNNLM模型是一个生成式模型,因为它建模了数据序列x1,…,xn的分布状况。这就意味着我们不仅能用它去评估句子生成概率,而且还能通过它生成概率最优的语句!
训练完成后,在代码q3 RNNLM.py 中实现函数generate_text()。该函数首先运行RNN前向算法,在起始标记&eos&处建立索引,然后从每轮迭代的y?&(t)分布对新词xt+1进行采样。然后把该词作为下一步的输入,重复该操作直至该模型遇到一个结束标志(结束标志记为&/eos&)。
撰写实验报告的一些要求:
在你的实验报告中至少包含2-3条的生成语句。看看你是否能产生一些妙趣横生的东西!
一些参考建议:
如果你想用语言模型继续实验,非常欢迎你上传自己的文档和对其训练成果——有时会是一个令人惊喜的实验结果!(可从网站 上获取以纪念版《圣经》和书籍《计算机程序设计与实现》为混合语料进行训练的伟大成果。)
[1]Optional (not graded): The interested reader should prove that this is indeed the maximum-likelihood objective when we let Wij~N(0,1/λ) for all i,j.
[2]This is also referred to as Glorot initialization and was initially described in
[3]这个模型可以参考Toma Mikolov的论文, 发表于2010年:
[4]我们使用Tensorflow库函数计算此处的损失率。
本文已收录于以下专栏:
相关文章推荐
本文介绍了RNN和LSTM的基本技术原理及其在自然语言处理的应用。
这篇教程是翻译Morgan写的TensorFlow教程,作者已经授权翻译,这是原文。
目录TensorFlow学习系列(一):初识TensorFlowTensorFlow学习系列(二):形状和动态维度...
这篇课堂笔记将介绍不同类型的RNN(递归神经网络),并介绍它在NLP领域的应用和优势。
在这篇课笔记中,我们会一起学习一种新的模型,这种模型绝对是以前介绍的那种递归神经网络的加强版!递归神经网络(RN...
前面一个接一个的Lecture,看得老衲自己也是一脸懵逼,不过你以为你做一个安安静静的美男子(总感觉有勇气做deep learning的女生也是一条汉纸)就能在Stanford这样的学校顺利毕业啦?图...
这个博客是用来分享cs224d的各种学习资料的哦,我下载整理学习这些可用了好久呢,希望能帮助到想要学习这方面知识的朋友,视频都是从Youtube上弄下来的,仅供学习交流使用哦,大家别乱转发。
本文为斯坦福大学CS224d课程的中文版内容笔记,已得到斯坦福大学课程@Richard Socher教授的授权翻译与发表
数据挖掘领域十大经典算法初探 译者:July   二零一一年一月十五日-----------------------------------------参考文献:国际权威的学术组织ICDM,于06年1...
又到了,博客时间,咳咳咳
这次lecture7的内容不太多。不过讲解的东西却是很高大上也很重要。
这次的课程主要就是在开头介绍了一下传统的语言模型,然后在后半段介绍了一个高大上的用RNN进行自然语...
贝叶斯方法是一个历史悠久,有着坚实的理论基础的方法,同时处理很多问题时直接而又高效,很多高级自然语言处理模型也可以从它演化而来。因此,学习贝叶斯方法,是研究自然语言处理问题的一个非常好的切...
他的最新文章
讲师:姜飞俊
讲师:汪木铃
您举报文章:
举报原因:
原文地址:
原因补充:
(最多只允许输入30个字)Stanford CS224d 是怎样的一门课? - 知乎29被浏览1763分享邀请回答37 条评论分享收藏感谢收起Schedule and Syllabus
Unless otherwise specified the course lectures and meeting times are:
Tuesday, Thursday 3:00-4:20
Location: Gates B1
EventDateDescriptionCourse Materials
Intro to NLP and Deep Learning
Suggested Readings:
Simple Word Vector representations: word2vec, GloVe
Suggested Readings:
A1 released
Pset #1 released
Advanced word vector representations: language models, softmax, single layer networks
Suggested Readings:
Neural Networks and backpropagation -- for named entity recognition
Suggested Readings:
Project Advice, Neural Networks and Back-Prop (in full gory detail)
Suggested Readings:
Practical tips: gradient checks, overfitting, regularization, activation functions, details
Suggested Readings:
Pset #1 due
Introduction to Tensorflow
Suggested Readings:
A2 released
Pset #2 released
Recurrent neural networks -- for language modeling and other tasks
Suggested Readings:
GRUs and LSTMs -- for machine translation
Suggested Readings:
Proposal due
Course Project Proposal due
Recursive neural networks -- for parsing
Suggested Readings:
Recursive neural networks -- for different tasks (e.g. sentiment analysis)
Suggested Readings:
Pset #2 Due date
Review Session for Midterm
Suggested Readings: N/A
In-class midterm
A3 released
Pset #3 released
Convolutional neural networks -- for sentence classification
Suggested Readings:
Course Project Milestone
Guest Lecture with : Speech recognition
Suggested Readings:
Guest Lecture with : Machine Translation
Suggested Readings:
Pset #3 Due date
Guest Lecture with : Seq2Seq and Large Scale DL
Suggested Readings:
The future of Deep Learning for NLP: Dynamic Memory Networks
Suggested Readings:
Poster Presentation
Final project poster presentations: 2-5 pm, Gates patio
Final Project Due
Final course project due date
[project description]为何DL在NLP效果并不是特别好但是Stanford却开设cs224d这门课? - 知乎402被浏览17168分享邀请回答0添加评论分享收藏感谢收起}

我要回帖

更多关于 考研考专业课任选一门 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信