负责任地开发和部署AI需要工具来帮助整个开发团队理解他们正在做什么,并向他们展示他们的选择如何影响最终用户。如今的研究人员、分析师和政策制定者迫切需要尽量减少,甚至避免AI模型可能造成的伤害。
工具包在创建更公平、更强大和更透明的系统方面发挥着关键作用。以下是可以帮助实施AI道德的七个工具包。
NASSCOM负责任AI资源工具包
2022年,印度国家软件及服务公司(NASSCOM)与包括微软、塔塔咨询服务和IBM研究在内的行业领导者合作,推出了负责任AI中心和资源工具包。正如名称所示,这一倡议的目标是确保AI技术的负责任整合。
NASSCOM将维护这个不断发展的参考资料,不断吸收最新的研究成果和行业最佳实践,汇集多个可靠来源。这个工具包为企业提供了在符合道德标准的同时开发和部署AI的工具和指导。此外,该工具包提供了识别和减轻在实施基于AI的解决方案时可能出现的道德风险的见解。
AI和数据保护风险工具包
英国信息专员办公室去年推出了一款AI和数据保护工具包,作为传播在使用AI方面的最佳实践的努力的一部分。该工具包可在其网站上以Excel文件形式下载和编辑,帮助组织应对各个阶段。在发布时,高级政策官员Alister Pearson表示,该工具包的开发旨在帮助组织遵守数据保护法规,并在使用AI时赢得公众的信任。
技术道德工具包
圣塔克拉拉大学马库拉应用伦理中心开发了该项目,为每个人提供免费的资源,将伦理融入他们的产品和设计中。该项目包括一个全面的工程和设计实践伦理工具包,由七个工具组成,可以与工程和设计工作流程相结合使用。该工具包旨在确保从业者负责任地开发技术,使伦理不会成为“泡影”。
玩转AI公平性:What-if Tool
谷歌开发的这个工具简称WIT,可帮助用户轻松准确地检查、评估和调试机器学习系统。这个开源的交互式可视化工具能够通过让用户检查、评估和比较模型来理解分类或回归模型。
由于其简单易用的界面和对编程依赖程度较低,这个工具适用于广泛的用户群体。无论你是经验丰富的开发人员、研究人员还是学生,这个资源都可以通过TensorBoard或作为Jupyter或Colab笔记本的扩展整合到你的工作流程中。
道德和算法工具包
Joy Bunaguro及其同事开发的这个工具包通过提出一系列问题对数据驱动项目的不同风险进行评级。根据风险级别,工具包中包含了降低风险的建议。
Aequitas
由芝加哥大学数据科学与公共政策中心于2018年开发的Aequitas是一个开源的偏见审计工具。该工具可供从开发人员到政策制定者等广泛的人群使用。该工具的目的是审计机器学习模型的歧视和偏见,为预测风险评估工具做出明智、公正的决策。
Human-AI体验(HAX)工具包
微软开发的这个工具包最适合在开发过程的早期为设计以人为中心的AI系统。该工具包由四个部分组成:HAX工作簿、HAX设计模式、HAX方案以及HAX设计库。HAX的基础来自于一篇2019年的研究论文,将其理论原则转化为实际工具。从许多方面来说,这些准则倡导在用户界面文本中保持清晰和精确,同时在系统故障情况下易于实施计划。