Face的库是NLP(自然语言处理)领域中非常受欢迎的一个库。它提供了许多预训练的模型如BERT、GPT-2、、XLNet、T5等,以及这些模型的各种变种。
![图片[1] | Hugging Face的Transformers库入门:如何加载预训练的BERT模型? | 星尘资源网](/wp-content/uploads/2025/10/1760458446409_0.jpg)
这个库的主要特点有:
例如,如果想使用BERT模型进行句子分类,使用库会非常简单。
以下是一个简单的示例来展示如何加载预训练的BERT模型:
from transformers import BertTokenizer, BertForSequenceClassification
import torch
# 加载 Tokenizer 和预训练的 BERT 分类模型
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')
# 为句子编码
inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
# 获取模型输出
outputs = model(**inputs)
# 输出是模型的logits
logits = outputs.logits
# 可以进一步转化为softmax输出得到分类概率
probs = torch.nn.functional.softmax(logits, dim=-1)
print(probs)
这只是一个简单的例子,库的功能远不止于此。如果你对具体的用途或如何使用有更多的问题,欢迎访问《 Face 轻松入门》专栏。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END















请登录后查看评论内容