BERT的get_sequence_output方法获取token向量是如何得到的?

通过如下方法得到,实际上获取的是encoder端最后一层编码层的特征向量。

BERT的get_pooled_output方法获取的句子向量是如何得到的?

通过如下方法得到,实际上获取的是[CLS]这个token对应的向量,把它作为整个句子的特征向量。

BERT代码中如何区分是预训练还是微调的,预训练代码是否开源了?
BERT模型开源代码中有一个run_pretraining.py的脚本,该脚本实现了预训练的逻辑。此外,关于下游任务的微调,官方也提供了对应的任务类脚本,如run_classifier.py等。

GitHub 加速计划 / be / bert
17
2
下载
TensorFlow code and pre-trained models for BERT
最近提交(Master分支:4 个月前 )
eedf5716 Add links to 24 smaller BERT models. 5 年前
8028c045 - 5 年前
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐