大白话Word2Vec算法-彻底理解词向量过程 中阶

通过讲解Word2Vec的神经网络架构,掌握Word2Vec中CBOW和Skip-Gram训练方式

更新: 2020/08/27

收藏( 3 下载课程 二维码 下载学院APP 缓存视频离线看 学习社群 二维码 关注公众号 加入官方群

1 学习人数 1小时7分钟 7课时
课程权益 15分钟内无条件退款 1、仅限付费视频课程适用
2、购买后15分钟内可以找到客服进行沟通退款
3、下载资料后不再享有退款特权
4、客服(Tel:400-101-1651)

24小时内答疑 随时随地观看课程 专属资料下载

L先生智能课堂

暂无评分 15门 课程 369 次学习

李虎,联想集团PCSD业务UDS平台推荐算法团队开发负责人,曾获2018-2019年度联想集团中国区优秀员工。在联想内部,做过多次企业内训和技术支持,并在北京线下技术沙龙分享会上作为演讲嘉宾分享...

主页
  • 课程介绍
  • 课程大纲
  • 其他课程 14
  • 学习路径

学完本课程,您将掌握:

  • 掌握Word2Vec的两种训练方式
  • 掌握Word2Vec的训练优化方式
  • 掌握Word2Vec的神经网络架构
  • 掌握Word2Vec的训练流程

适合人群:

人工智能爱好者

课程目标:

通过讲解Word2Vec的神经网络架构,掌握Word2Vec中CBOW和Skip-Gram训练方式

课程简介:

通过讲解Word2Vec的神经网络架构,两种训练方式CBOW和Skip-Gram,两种优化方式层次SoftMax和负采样算法,让你了解Word2Vec词向量的所有过程。

资料:


视频:


展开更多

课程大纲

资料下载
  • 第1章 词向量Word2Vec的引入

    9分钟1节

  • 1-1

    Word2Vec之词向量的引入

    [09:49] 开始学习
  • 第2章 Word2Vec的两种训练方式

    25分钟3节

  • 2-1

    Word2Vec两种训练方式引入

    [05:51] 开始学习
  • 2-2

    Word2Vec训练方式之CBOW

    [05:35] 开始学习
  • 2-3

    Word2Vec训练方式之Skip-Gram

    [14:13] 开始学习
  • 第3章 Word2Vec训练优化方式

    32分钟3节

  • 3-1

    Word2Vec训练优化之霍夫曼树构造

    [05:47] 开始学习
  • 3-2

    Word2Vec训练优化之Hierarchical

    [15:46] 开始学习
  • 3-3

    Word2Vec训练优化之Negative Samp

    「仅限付费用户」点击下载“Word2vec.zip”

    [10:48] 开始学习
¥39.00
关注公众号 领VIP会员
下次再说

点击打包下载,即可获取该课程全部资料

打包下载
在线
客服
在线
客服

下载Android客户端

下载iphone 客户端

关注官方微信

返回
顶部