bert里面有个max_seq_length。就是字数的个数

在bert里面的函数 _truncate_seq_pair增加了 tokens_a 和 tokens_b的length函数

发现:

1.当len(tokens_a) + len(tokens_b)> max_seq_length:会循环:把长度大的那个截断一个字符,指导小于。

2.汉字算一个,英文的话,一个单词算一个,一个标点符号算一个

譬如:鸡蛋蛋花汤怎么做 的长度是8 

           如何删除我的iphone 的长度是7

3.所以可以测试一下,训练数据的分布,然后把max_seq_length从128修改为低一点数字,譬如:64 来节省内存。

 

GitHub 加速计划 / be / bert
17
2
下载
TensorFlow code and pre-trained models for BERT
最近提交(Master分支:4 个月前 )
eedf5716 Add links to 24 smaller BERT models. 5 年前
8028c045 - 5 年前
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐