词嵌入来龙去脉 word embedding和word2vec

0词嵌入来龙去脉

之前一段时间,在结合深度学习做NLP的时候一直有思考一些问题,

不少的terms like: 词向量、word embedding、分布式表示、word2vec、glove等等,

这一锅粥的名词术语分别代表什么,他们具体的关系是什么,他们是否处于平级关系?

整篇文章的构架是按照属于概念在逻辑上的先后大小顺序,一层一层一级一级地往下剖析、比较、说明。

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×