微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Transformers TF-PT 用于 TF 2.0 和 PyTorch 的自然语言处理框架

程序名称:Transformers TF-PT

授权协议: Apache-2.0

操作系统: 跨平台

开发语言: Python

Transformers TF-PT 介绍

Transformers(以往称为 pytorch-transformers 和 pytorch-pretrained-bert)是用于
TensorFlow 2.0 和 PyTorch 的自然语言处理框架。它提供了用于自然语言理解(NLU,Natural Language
Understanding)和自然语言生成(NLG,Natural Language Generation)的最先进的通用架构,包括
BERT、GPT-2、RoBERTa、XLM、distilBert 与 XLNet 等,具有超过 100 种语言的 32 种以上经过预训练的模型,以及
TensorFlow 2.0 和 PyTorch 之间的深度互操作性。

特性:

  • 与 pytorch-transformers 一样易用
  • 像 Keras 一样强大与简洁
  • 处理 NLU 和 NLG 任务时性能
  • 教育者和从业者的进入门槛低
  • 低计算成本,研究人员可以共享训练模型,不必再训练,内置 8 种架构,包含 30 多种预训练的模型,其中一些采用 100 多种语言
  • 3 行代码即可训练最先进的模型
  • TensorFlow 2.0 和 PyTorch 模型之间的深层互操作性,可以随意在两个框架之间移动单个模型

Transformers TF-PT 官网

https://huggingface.co/transformers

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐