Hugging Face是AI开发者和研究人员首选的平台,长期以来在启动和维持有关伦理和责任的对话方面发挥着关键作用。开源社区依赖于该平台来获取资源。其中一个促成因素是该平台提供了一个开放和包容性讨论的空间,以在构建AI模型时进行伦理考虑,不论是文本模型还是视觉模型。
一些主要的贡献者包括Alexandra Sasha Luccioni(Hugging Face)、Christopher Akiki(ScaDS.AI, Leipzig University)、Margaret Mitchell(Hugging Face)和Yacine Jernite(Hugging Face),他们参与了各种旨在推广伦理AI的项目。
以下是Hugging Face上托管的6个工具,可帮助研究人员在构建具有伦理考虑的AI模型时提供帮助:
扩散聚类探索器(Diffusion Cluster Explorer)
该工具旨在研究数据中的社会层面偏见。网站上的演示利用性别和种族表征聚类,分析了机器生成的职业视觉表征中的社会趋势。
身份表征演示(Identity Representation Demo)
该演示展示了Stable Diffusion和Dalle-2系统生成的图像中的模式。具体来说,将跨越各种与性别和种族相关的术语的提示输入所获得的图像进行聚类,以展示它们如何塑造视觉表征。
BoVW最近邻探索器(BoVW Nearest Neighbors Explorer)
该工具用三个模型生成的身份数据集图像的TF-IDF索引,利用了一个包含10,752个词的视觉词汇表。用户可以选择一个生成的身份图像,使用视觉词袋模型找到其最近邻。
语言模型(Language models)
插入即用的偏见检测(Plug-and-Play Bias Detection):针对现今在日常技术中广泛使用的语言模型,选择一种方法来限制系统中的偏见和约束已成为当务之急。为应对这个问题,研究人员正在开发关键指标,如 BOLD、HONEST 和 WinoBias。这些指标有助于量化语言模型在各种多样提示下生成可能被认为“不公平”的文本的倾向。
数据测量工具(Data Measurements Tool)
这个正在开发中的工具的演示展示了我们开发的数据集测量方式。目前,它预装了一些数据集,用户可以:
公平扩散探索器(Fair Diffusion Explorer)
在这里,研究人员介绍了一种用于减轻部署后生成的文本到图像模型中的偏见的新策略。如演示所示,这种方法涉及根据人类指令有意调整偏见。正如经验证明的那样,这种新发现的能力可以对生成的图像模型进行精确指导,以实现公平原则,无需进行数据过滤或额外的训练。