前几天录了一个什么是 Word2Vec 的教程,在 B 站 http://www.bilibili.com/video/av9258966/
不知道有没有解释清楚。懂一点深度学习的朋友看一看,给点意见。
我去年也制作了一个深度学习入门的教程,在这里: https://github.com/CreatCodeBuild/TensorFlow-and-DeepLearning-Tutorial/tree/master/Season1
总之在这里分享出来给大家咯。
(分享在 Python 节点是因为教程代码 Python )
1
menc 2017-03-22 13:01:43 +08:00 1
你发的是 word embedding ,不是 word2vec
word2vec 特指 mikolov 在 2011 年发的 paper 中用到的模型和工具。 具体来说,是 CBOW + SKIP-GRAM 两个模型, negative sampling + hierarchical softmax 两种训练方法组成的 word embedding 训练方法。 至于你在视频里说的“最后走一层 softmax ”,完全不可用, softmax 时间复杂度 O(#token), token 有 90w 的情况下( nlp 常见),根本训练不出来,这也正是 mikolov 使用 hierarchical softmax 训练的原因 还是那个建议,多学知识,别急着做些没有信息量的视频,搞个人 PR 。 |
2
menc 2017-03-22 13:09:51 +08:00
对 machine learning 和 deep learning ,不是一定公式越多越好,但是一个模型从头到尾讲完,一个公式都没有,我觉得还是有点问题的。
|
3
KIDJourney 2017-03-22 13:30:55 +08:00
看到播放量只有 100 我就放心了。
|
4
liyuhang 2017-03-22 18:30:11 +08:00
b 站不太适合放这种类型的视频
|
6
xiaoli88 2018-02-25 11:34:24 +08:00
基于 word2vec+TextRank 算法生成文章摘要,目前可处理中文版,文本小于 5000 字
https://www.xiaohuaerai.com/trail/zhaiyao |