Efficient Estimation of Word Representations in Vector Space论文笔记解读

基本信息

作者 TomasMikolov doi 10.48550
发表时间 2013 期刊 ICLR
网址 http://arxiv.org/abs/1301.3781

研究背景

1. What’s known 既往研究已证实
前馈神经网络语言模型(NNLM)
循环神经网络语言模型(RNNLM)

2. What’s new 创新点
Word2vec有两种模型:CBOW和Skip-gram,使得计算成本下降并且准确率提升。
Word2vec的向量表示能够自动捕捉到单词之间的语义和语法关系。

3. What’s are the implications 意义
加快训练速度。
能够在大规模语料上进行词向量的训练。
衡量词向量之间的相似程度。

研究方法

1. skip-gram
通过中心单词来预测上下文单词。对于给定的一对(中心单词,上下文单词),我们希望最大化它们的共现概率。
在这里插入图片描述
用softmax来估计每个上下文单词的概率:
在这里插入图片描述
损失函数:
在这里插入图片描述
在这里插入图片描述

2. cbow(词袋模型bag-of-word)
用周围词预测中心词,求和的时候忽略了每个词的顺序。
在这里插入图片描述
在这里插入图片描述
损失函数:
在这里插入图片描述
最后输出V个概率,复杂度比较高,采用了2重方法降低复杂度,分别是层次softmax和负采样。

3. Hierarchical Softmax
将输出层的单词表示为一个二叉树,其中每个叶子节点都表示一个单词。每个非叶子节点都表示两个子节点的内积,每个叶子节点都表示该单词的条件概率。由于二叉树的形状,我们可以使用 l o g 2 W log_{2}W log2W个节点来表示词汇表大小为W的模型,降低计算量。
在这里插入图片描述
4. Negative Sampling
舍弃多分类,把多分类转变成二分类问题(正样本和负样本)。

正样本:用中心词和其中一个周围词做成正样本(jumps over)
负样本:我们随机从词表里面选一个词与over构成负样本(over again)

增大正样本的概率,减小负样本的概率。

损失函数:正样本函数+负样本函数
在这里插入图片描述
函数“J neg-sample ”越大越好,损失函数需要加个符号让损失越小越好。
https://zhuanlan.zhihu.com/p/419804103

结果与讨论

  1. 单词向量优于以前的技术状态。
  2. 使用非常简单的模型架构可以训练高质量的词向量。计算复杂性低,可从更大的数据集中计算非常精确的高维词向量。
  3. 通过Word2vec训练出的词向量可以用于许多自然语言处理任务,例如词义相似度计算、命名实体识别和情感分析等。

重要图

文献中重要的图记录下来
图1: 新的模型架构。CBOW架构根据上下文预测当前单词,Skip-gram根据当前单词预测周围单词
在这里插入图片描述

相关推荐

  1. 论文笔记 | ICLR 2023 WikiWhy:回答和解释因果问题

    2024-07-10 23:08:05       72 阅读
  2. 论文阅读笔记】清单

    2024-07-10 23:08:05       81 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-10 23:08:05       114 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-10 23:08:05       124 阅读
  3. 在Django里面运行非项目文件

    2024-07-10 23:08:05       101 阅读
  4. Python语言-面向对象

    2024-07-10 23:08:05       112 阅读

热门阅读

  1. python excel openpyxl

    2024-07-10 23:08:05       24 阅读
  2. 生物环保的技术原理和优点是什么

    2024-07-10 23:08:05       26 阅读
  3. 深入理解Spring Cloud中的服务注册

    2024-07-10 23:08:05       38 阅读
  4. SIFT代码,MATLAB

    2024-07-10 23:08:05       27 阅读
  5. Scala 数据类型

    2024-07-10 23:08:05       30 阅读
  6. DP学习——简单工厂模式

    2024-07-10 23:08:05       25 阅读
  7. 从 Spark 离线数仓到 Flink 实时数仓:实战指南

    2024-07-10 23:08:05       25 阅读