Transformers

创建日期:2024-06-21
更新日期:2025-04-21

项目地址:huggingface/transformers: 🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. (github.com)

官方文档1:Transformers

官方文档2:🤗 Transformers (hf-mirror.com)

主要功能

=任务=描述=模态=Pipeline
文本分类为给定的文本序列分配一个标签NLPpipeline(task=“sentiment-analysis”)
文本生成根据给定的提示生成文本NLPpipeline(task=“text-generation”)
命名实体识别为序列里的每个 token 分配一个标签(人, 组织, 地址等等)NLPpipeline(task=“ner”)
问答系统通过给定的上下文和问题, 在文本中提取答案NLPpipeline(task=“question-answering”)
掩盖填充预测出正确的在序列中被掩盖的tokenNLPpipeline(task=“fill-mask”)
文本摘要为文本序列或文档生成总结NLPpipeline(task=“summarization”)
文本翻译将文本从一种语言翻译为另一种语言NLPpipeline(task=“translation”)
图像分类为图像分配一个标签Computer visionpipeline(task=“image-classification”)
图像分割为图像中每个独立的像素分配标签(支持语义、全景和实例分割)Computer visionpipeline(task=“image-segmentation”)
目标检测预测图像中目标对象的边界框和类别Computer visionpipeline(task=“object-detection”)
音频分类给音频文件分配一个标签Audiopipeline(task=“audio-classification”)
自动语音识别将音频文件中的语音提取为文本Audiopipeline(task=“automatic-speech-recognition”)
视觉问答给定一个图像和一个问题,正确地回答有关图像的问题Multimodalpipeline(task=“vqa”)

安装使用

1、安装Transformers。

pip install transformers

2、由于国内无法访问huggingface官网,可以添加以下系统参数,设置国内镜像。

HF_ENDPOINT=https://hf-mirror.com

3、在Windows上,huggingface下载的数据集和模型默认保存在C:\Users\用户名\.cache\huggingface。如果想保存在其他位置,可以添加以下两个系统参数。

HF_HOME=E:\temp\huggingface
HF_HUB_DISABLE_SYMLINKS_WARNING=1

下载模型

使用huggingface-cli下载模型

国内使用transformers库的方法

使用教程

使用Transformers进行情绪分析

使用Transfomers进行语音识别

使用Transformers进行图片分类

使用Transformers生成文本

使用Transformers进行问答

使用Transformers进行图片问答

相关文档

Transformers: State-of-the-Art Natural Language Processing:1910.03771.pdf (arxiv.org)

简介

一个来自三线小城市的程序员开发经验总结。