transformers DefaultDataCollator类
transformers
huggingface/transformers: 是一个基于 Python 的自然语言处理库,它使用了 PostgreSQL 数据库存储数据。适合用于自然语言处理任务的开发和实现,特别是对于需要使用 Python 和 PostgreSQL 数据库的场景。特点是自然语言处理库、Python、PostgreSQL 数据库。
项目地址:https://gitcode.com/gh_mirrors/tra/transformers
免费下载资源
·
构造方法
DefaultDataCollator(return_tensors: str = 'pt')
默认的数据收集器,只是将transformers中的Dataset数据对象转换成tensorflow或pytorch可以处理的Dataset数据对象。没有像DataCollatorWithPadding那样,在转换数据类型的同时,也进行数据的填充。
参数return_tensors表示返回数据的类型。有三个可选项,分别是"tf"、“pt”、“np”,分别表示tensorflow可以处理的数据类型,pytorch可以处理的数据类型以及numpy数据类型。
使用示例
def preprocess_fn(data):
data = {k: sum(data[k], []) for k in data.keys()}
total_length = len(data[list(data.keys())[0]])
total_length = (total_length // 128) * 128 # 128表示每一组的句子的长度
result = {k: [v[i: i + 128] for i in range(0, total_length, 128)] for k, v in data.items()}
result["label"] = result["input_ids"].copy()
return result
dataset = datasets.load_dataset("wikitext", "wikitext-2-raw-v1")
tokenizer = transformers.AutoTokenizer.from_pretrained("distilgpt2")
# 使用默认的数据收集器
data_collator = transformers.DefaultDataCollator(return_tensors="tf")
dataset = dataset.map(function=lambda data: tokenizer(data["text"], truncation=True),
batched=True,
batch_size=1000,
remove_columns=["text"])
dataset = dataset.map(function=preprocess_fn,
batched=True,
batch_size=1000)
train_dataset = dataset["train"].to_tf_dataset(columns=["input_ids", "attention_mask"],
batch_size=16,
shuffle=True,
collate_fn=data_collator,
label_cols=["labels"])
GitHub 加速计划 / tra / transformers
62
5
下载
huggingface/transformers: 是一个基于 Python 的自然语言处理库,它使用了 PostgreSQL 数据库存储数据。适合用于自然语言处理任务的开发和实现,特别是对于需要使用 Python 和 PostgreSQL 数据库的场景。特点是自然语言处理库、Python、PostgreSQL 数据库。
最近提交(Master分支:4 个月前 )
6e0515e9
* added changes from 32905
* fixed mistakes caused by select all paste
* rename diff_dinov2...
* ran tests
* Fix modular
* Fix tests
* Use new init
* Simplify drop path
* Convert all checkpoints
* Add figure and summary
* Update paths
* Update docs
* Update docs
* Update toctree
* Update docs
---------
Co-authored-by: BernardZach <bernardzach00@gmail.com>
Co-authored-by: Zach Bernard <132859071+BernardZach@users.noreply.github.com> 3 天前
d8c1db2f
Signed-off-by: jiqing-feng <jiqing.feng@intel.com> 3 天前
更多推荐
已为社区贡献7条内容
所有评论(0)