模型:

SenseTime/deformable-detr-single-scale-dc5

英文

带有ResNet-50骨干网络、单尺度+空洞率的可变形DETR模型

可变形DEtection TRansformer(DETR)单尺度+空洞率模型在COCO 2017目标检测(118k个标记图像)上进行端到端训练。该模型由Zhu等人在论文 Deformable DETR: Deformable Transformers for End-to-End Object Detection 中介绍,并在 this repository 中首次发布。

免责声明:发布可变形DETR的团队并未为此模型编写模型卡片,因此本模型卡片是由Hugging Face团队编写的。

模型描述

DETR模型是一个带有卷积骨干网络的编码器-解码器Transformer。在解码器输出的顶部增加了两个头,用于执行目标检测:一个用于类别标签的线性层,一个用于边界框的多层感知器(MLP)。模型使用所谓的对象查询来检测图像中的对象。每个对象查询在图像中寻找特定的对象。对于COCO,对象查询的数量设置为100。

模型使用“二部图匹配损失”进行训练:将每个N = 100个对象查询的预测类别+边界框与地面真值注释进行比较,将它们都填充到相同的长度N(因此,如果一张图像只包含4个对象,则96个注释将只有一个“无对象”作为类别和一个“无边界框”作为边界框)。匈牙利匹配算法用于创建每个N个查询和每个N个注释之间的最佳一对一映射。接下来,使用标准的交叉熵(用于类别)和L1和广义IoU损失的线性组合(用于边界框)来优化模型的参数。

预期用途和限制

您可以使用原始模型进行目标检测。请参阅 model hub 以查找所有可用的可变形DETR模型。

使用方法

以下是如何使用此模型:

from transformers import AutoImageProcessor, DeformableDetrForObjectDetection
import torch
from PIL import Image
import requests

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)

processor = AutoImageProcessor.from_pretrained("SenseTime/deformable-detr-single-scale-dc5")
model = DeformableDetrForObjectDetection.from_pretrained("SenseTime/deformable-detr-single-scale-dc5")

inputs = processor(images=image, return_tensors="pt")
outputs = model(**inputs)

# convert outputs (bounding boxes and class logits) to COCO API
# let's only keep detections with score > 0.7
target_sizes = torch.tensor([image.size[::-1]])
results = processor.post_process_object_detection(outputs, target_sizes=target_sizes, threshold=0.7)[0]

for score, label, box in zip(results["scores"], results["labels"], results["boxes"]):
    box = [round(i, 2) for i in box.tolist()]
    print(
            f"Detected {model.config.id2label[label.item()]} with confidence "
            f"{round(score.item(), 3)} at location {box}"
    )

目前,功能提取器和模型都支持PyTorch。

训练数据

可变形DETR模型在 COCO 2017 object detection 数据集上进行了训练,该数据集由118k/5k个带注释的图像用于训练/验证。

BibTeX条目和引用信息

@misc{https://doi.org/10.48550/arxiv.2010.04159,
  doi = {10.48550/ARXIV.2010.04159},
  url = {https://arxiv.org/abs/2010.04159}, 
  author = {Zhu, Xizhou and Su, Weijie and Lu, Lewei and Li, Bin and Wang, Xiaogang and Dai, Jifeng},
  keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},
  title = {Deformable DETR: Deformable Transformers for End-to-End Object Detection},
  publisher = {arXiv},
  year = {2020},
  copyright = {arXiv.org perpetual, non-exclusive license}
}