微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

word2vec

首先感谢一下joey老师,通过深度之眼这个平台认识的
skip-gram听cs224n老师几次,总是没有完全理解,这次有了一个较好的认识。

先附上官方note
https://web.stanford.edu/class/cs224n/readings/cs224n-2019-notes01-wordvecs1.pdf
先大致写一下这个note里面有讲什么吧:

  • Introduction to NLP.
    • What is so special about NLP?
      • 语言是用来传达意思的一个系统,word是用来映射到具体事物的一个符号
    • Examples of tasks
      • 容易
        • 拼写检查
        • 关键词搜索
        • 找同义词
      • 中等
        • 从网站、文档中解析信息
        • 机器翻译
        • 语义分析,what is the meaning of the query?
        • 共指消解
    • How to represent words?
      • 最开始我们都是组建词典,然后用one-hot向量表示,
      • one-hot

      • 但这种方法忽视了词语之间的意义关联,所以新方法是用词向量,方便计算词与词之间的距离,内存也会减小。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐