首页
拜师
课程
定制计划
博客资源站
手机app
首页
拜师
课程
定制计划
博客资源站
手机app
登录
注册
登录
注册
首页
前沿技术
人工智能
自然语言处理/NLP
4、(2022)Transformer和预训练模型阶段
1
人加入学习
(0人评价)
4、(2022)Transformer和预训练模型阶段
价格
免费
学习有效期
366 天(随到随学)
已收藏
收藏
分享
扫一扫
扫二维码继续学习 二维码时效为半小时
分享
已收藏
收藏
该课程属于
2827-王同学-算法方向-计算机视觉-就业:是
请加入后再学习
目录
笔记
(0)
评价
(0)
介绍
全部任务
全部任务
上阶段考核通过卡点
课件资料下载
最⻓公共⼦串和最⻓公共⼦序列的动...
⾃注意⼒机制以及Transfor...
⾃注意⼒机制以及Transfor...
⾃注意⼒机制以及Transfor...
每日作业
Transformer的代码实现...
Transformer的代码实现...
Transformer的代码实现...
每日作业
Paper _transform...
作业3-1讲解.mp4
每日作业
基于BERT和Transform...
基于BERT和Transform...
基于BERT和Transform...
每日作业
BERT的fine-tuning...
BERT的fine-tuning...
项目3-1讲解 项目3-2布置....
每日作业
XLNet, ALBERT以及应...
XLNet, ALBERT以及应...
XLNet, ALBERT以及应...
XLNet, ALBERT以及应...
XLNet, ALBERT以及应...
XLNet, ALBERT以及应...
每日作业
ALBERT论文讲解.mp4
XLNet论文讲解-1.mp4
XLNet论文讲解-2.mp4
作业3-2讲解.mp4
每日作业
排序:
最新笔记
最新笔记
点赞最多
暂无笔记
5、(2022)NLP后置课程
40
0
4、(2022)Transformer和预训练模型阶段
129
0
3、(2022)NLP项目集合
105
0
2、(2022)NLP深度学习算法加强
9
0
授课教师
森陌夏栀
高级算法工程师
teacher01
老师
teacher02
teacher03
课程特色
考试(8)
图文(1)
视频(25)
最新学员
学员动态
小王
开始学习
Transformer的代码实...
小王
开始学习
Transformer的代码实...
小王
开始学习
Transformer的代码实...
小王
开始学习
⾃注意⼒机制以及Transfo...
小王
开始学习
⾃注意⼒机制以及Transfo...