最后更新于
最后更新于
其他的Embedding方法, 或者基于word2vec和GloVe方法优化的思路有:
: 借助positive pointwise mutual information, PPMI矩阵得到词向量, 具体方法见论文. 这是一种稀疏的表示方法
: 从方法名称就可以看出, 用n-gram代替了单个单词word. 原本的word2vec可以看成1gram2vec. 由于使用了n-gram从语料中进行提取, 因此词(这里的词指的是一个n-gram中所有单词组成的整体)的数量会爆炸, 论文中表述了相应的应对方法. 这种算法是借助于word2vec, GloVe, PPMI等基础算法, 进行的优化.