模型:
microsoft/cvt-21-384-22k
CvT-21 模型在 ImageNet-22k 数据集上预训练,并在分辨率为 384x384 的 ImageNet-1k 数据集上进行微调。该模型在 Wu 等人的论文 CvT: Introducing Convolutions to Vision Transformers 中提出,并于 this repository 首次发布。
免责声明:发布 CvT 的团队没有为该模型编写模型卡,因此该模型卡由 Hugging Face 团队编写。
以下是使用该模型将 COCO 2017 数据集中的图像分类为 1,000 个 ImageNet 类别之一的示例:
from transformers import AutoFeatureExtractor, CvtForImageClassification from PIL import Image import requests url = 'http://images.cocodataset.org/val2017/000000039769.jpg' image = Image.open(requests.get(url, stream=True).raw) feature_extractor = AutoFeatureExtractor.from_pretrained('microsoft/cvt-21-384-22k') model = CvtForImageClassification.from_pretrained('microsoft/cvt-21-384-22k') inputs = feature_extractor(images=image, return_tensors="pt") outputs = model(**inputs) logits = outputs.logits # model predicts one of the 1000 ImageNet classes predicted_class_idx = logits.argmax(-1).item() print("Predicted class:", model.config.id2label[predicted_class_idx])