模型:
facebook/detr-resnet-50-dc5
DEtection TRansformer(DETR)模型是在COCO 2017目标检测数据集(118,000张标注图像)上进行端到端训练的。该模型首次在Carion等人的论文中提出,并在 this repository 中首次发布。
免责声明:发布DETR的团队没有为该模型编写模型卡片,因此该模型卡片由Hugging Face团队编写。
DETR模型是一个带有卷积骨干网络的编码器-解码器Transformer模型。在解码器输出的基础上,添加了两个头部来进行目标检测:一个用于类别标签的线性层和一个用于边界框的多层感知器(MLP)。该模型使用所谓的对象查询来检测图像中的对象。每个对象查询都在图像中寻找特定的对象。对于COCO数据集,对象查询的数量设置为100。
该模型使用“二分图匹配损失”进行训练:将每个N个对象查询的预测类别+边界框与地面实况注释进行比较,填充到相同长度N(因此,如果图像仅包含4个对象,则96个注释将只有“无对象”作为类别和“无边界框”作为边界框)。使用匈牙利匹配算法在N个查询和N个注释之间创建最优一对一映射。接下来,使用标准的交叉熵(用于类别)和L1损失与广义IoU损失的线性组合(用于边界框)来优化模型的参数。
您可以使用原始模型进行目标检测。请参阅 model hub 以查看所有可用的DETR模型。
以下是使用该模型的方法:
from transformers import DetrFeatureExtractor, DetrForObjectDetection from PIL import Image import requests url = 'http://images.cocodataset.org/val2017/000000039769.jpg' image = Image.open(requests.get(url, stream=True).raw) feature_extractor = DetrFeatureExtractor.from_pretrained('facebook/detr-resnet-50-dc5') model = DetrForObjectDetection.from_pretrained('facebook/detr-resnet-50-dc5') inputs = feature_extractor(images=image, return_tensors="pt") outputs = model(**inputs) # model predicts bounding boxes and corresponding COCO classes logits = outputs.logits bboxes = outputs.pred_boxes
目前,特征提取器和模型都支持PyTorch。
DETR模型是在 COCO 2017 object detection 上进行训练的,该数据集包含118,000/5,000张用于训练/验证的标注图像。
关于训练/验证期间图像的预处理的详细信息可以在 here 中找到。
图像被调整大小/缩放,使得最短边至少为800像素,最长边最多为1333像素,并通过RGB通道进行规范化,使用ImageNet的平均值(0.485、0.456、0.406)和标准差(0.229、0.224、0.225)。
该模型在16个V100 GPU上进行了300个epoch的训练。每个GPU上处理4张图像(因此总批量大小为64),训练历时3天。
该模型在COCO 2017验证集上达到43.3的AP(平均精度)。有关评估结果的更多详细信息,请参阅原始论文的表1。
@article{DBLP:journals/corr/abs-2005-12872, author = {Nicolas Carion and Francisco Massa and Gabriel Synnaeve and Nicolas Usunier and Alexander Kirillov and Sergey Zagoruyko}, title = {End-to-End Object Detection with Transformers}, journal = {CoRR}, volume = {abs/2005.12872}, year = {2020}, url = {https://arxiv.org/abs/2005.12872}, archivePrefix = {arXiv}, eprint = {2005.12872}, timestamp = {Thu, 28 May 2020 17:38:09 +0200}, biburl = {https://dblp.org/rec/journals/corr/abs-2005-12872.bib}, bibsource = {dblp computer science bibliography, https://dblp.org} }