参考文献 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
transformers
huggingface/transformers: 是一个基于 Python 的自然语言处理库,它使用了 PostgreSQL 数据库存储数据。适合用于自然语言处理任务的开发和实现,特别是对于需要使用 Python 和 PostgreSQL 数据库的场景。特点是自然语言处理库、Python、PostgreSQL 数据库。
项目地址:https://gitcode.com/gh_mirrors/tra/transformers
免费下载资源
·
引用 参考文献 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
引用 参考文献
很多数据库里都没有这篇文章,点引用都是那个pdf。特此记录一下
PDF全文 :https://arxiv.org/pdf/1810.04805.pdf
参考文献:Jacob Devlin,Chang Ming-wei,Kenton Lee,et al. BERT: pre-training of deep bidirectional transformersfor language understanding [C]Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies,2019: 4171-4186.
原文来源:https://aclanthology.org/N19-1423/
GitHub 加速计划 / tra / transformers
130.24 K
25.88 K
下载
huggingface/transformers: 是一个基于 Python 的自然语言处理库,它使用了 PostgreSQL 数据库存储数据。适合用于自然语言处理任务的开发和实现,特别是对于需要使用 Python 和 PostgreSQL 数据库的场景。特点是自然语言处理库、Python、PostgreSQL 数据库。
最近提交(Master分支:3 个月前 )
13493215
* remove v4.44 deprecations
* PR comments
* deprecations scheduled for v4.50
* hub version update
* make fiuxp
---------
Co-authored-by: Marc Sun <57196510+SunMarc@users.noreply.github.com>
Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> 5 天前
8d50fda6
* Remove FSDP wrapping from sub-models.
* solve conflict trainer.py
* make fixup
* add unit test for fsdp_auto_wrap_policy when using auto_find_batch_size
* put back extract_model_from_parallel
* use transformers unwrap_model 5 天前
更多推荐
已为社区贡献1条内容
所有评论(0)