模型:

google/pix2struct-large

英文

Pix2Struct - 预训练模型 - 大版本 Model card

这个模型是 Pix2Struct 的预训练版本,仅用于微调目的。

目录

  • TL;DR
  • 使用模型
  • 贡献
  • 引用
  • TL;DR

    Pix2Struct 是一个图像编码器 - 文本解码器模型,它是根据图像 - 文本配对训练的,用于各种任务,包括图像描述和视觉问答。可以在论文的表1中找到可用模型的完整列表:

    该模型的摘要如下:

    视觉定位语言是无处不在的 - 资源范围从带有图表的教科书到带有图像和表格的网页,再到带有按钮和表单的移动应用程序。也许是由于这种多样性,先前的工作通常依赖于特定于域的配方,其底层数据,模型架构和目标有限共享。我们提出了 Pix2Struct,这是一个用于纯视觉语言理解的预训练图像到文本模型,可以在包含视觉定位语言的任务上进行微调。Pix2Struct的预训练是通过将网页的屏幕截图解析为简化的HTML实现的。Web的丰富性在HTML结构中清晰地反映了其中的视觉元素,为大多数下游任务的多样性提供了大量的预训练数据资源。直观地说,这个目标包含了常见的预训练信号,如OCR、语言建模和图像描述。除了新颖的预训练策略,我们还引入了一个可变分辨率的输入表示以及一种更灵活的语言和视觉输入集成方式,其中诸如问题之类的语言提示直接呈现在输入图像的顶部。我们首次展示了单个预训练模型在四个领域的九个任务中有六个任务取得了最先进的结果,这四个领域是:文档、插图、用户界面和自然图像。

    使用模型

    从T5x转换到huggingface

    您可以按照以下方式使用 convert_pix2struct_checkpoint_to_pytorch.py 脚本:

    python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE
    

    如果要转换一个大模型,请运行:

    python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE --use-large
    

    保存后,可以使用以下代码段推送已转换的模型:

    from transformers import Pix2StructForConditionalGeneration, Pix2StructProcessor
    
    model = Pix2StructForConditionalGeneration.from_pretrained(PATH_TO_SAVE)
    processor = Pix2StructProcessor.from_pretrained(PATH_TO_SAVE)
    
    model.push_to_hub("USERNAME/MODEL_NAME")
    processor.push_to_hub("USERNAME/MODEL_NAME")
    

    贡献

    该模型最初由Kenton Lee、Mandar Joshi等人提供,并由 Younes Belkada 添加到Hugging Face生态系统中。

    引用

    如果您想引用此工作,请考虑引用原始论文:

    @misc{https://doi.org/10.48550/arxiv.2210.03347,
      doi = {10.48550/ARXIV.2210.03347},
      
      url = {https://arxiv.org/abs/2210.03347},
      
      author = {Lee, Kenton and Joshi, Mandar and Turc, Iulia and Hu, Hexiang and Liu, Fangyu and Eisenschlos, Julian and Khandelwal, Urvashi and Shaw, Peter and Chang, Ming-Wei and Toutanova, Kristina},
      
      keywords = {Computation and Language (cs.CL), Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},
      
      title = {Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding},
      
      publisher = {arXiv},
      
      year = {2022},
      
      copyright = {Creative Commons Attribution 4.0 International}
    }