BERT完全指南-从原理到实践
bert
TensorFlow code and pre-trained models for BERT
项目地址:https://gitcode.com/gh_mirrors/be/bert
免费下载资源
·
转载请注明出处,原文地址
简介
本文将会从BERT的原理开始讲起,并带领大家分析transformer的源码,最后分别介绍如何使用BERT做本文分类与句向量的生成。
原理篇
本章将会先给大家介绍BERT的核心transformer,而transformer又是由attention组合而成,希望这两篇博客能让大家对transformer有一个详细的了解。
代码篇
上文介绍完了BERT的原理,接下来我们会对transformer的源码进行分析。
实践篇
最后就是BERT的两个实战项目了,这两个项目也是目前NLP方向比较热门的内容。
GitHub 加速计划 / be / bert
37.61 K
9.55 K
下载
TensorFlow code and pre-trained models for BERT
最近提交(Master分支:2 个月前 )
eedf5716
Add links to 24 smaller BERT models. 4 年前
8028c045 - 4 年前
更多推荐
已为社区贡献4条内容
所有评论(0)