谷歌机器学习速成课程新增关于公平性训练模块
2018年10月19日 由 浅浅 发表
60577
0
今天,谷歌机器学习速成课程新增加了一个关于公平性的训练模块,且即将推出中文版。
随着机器学习的继续采用,道德和公平是非常重要的考虑因素。虽然AI可以“比基于临时规则或人类判断的决策过程更具公平性和更具包容性”,但用于训练这些模型的数据可能存在潜在的偏差。
其他问题涉及确保人工智能在所有情况下都是公平的,而更广泛地说,“没有公平的标准定义”。
负责任地评估机器学习模型需要做的不仅仅是计算损失度量。在将模型投入生产之前,审核训练数据和评估偏差预测至关重要。
这个新增的长达一小时的课程是由谷歌的工程教育和ML公平团队开发的,该模块着眼于可以在训练数据中体现的不同类型的人类偏见。然后,它提供识别它们并评估其影响的策略。
学习目标
- 了解可能无意中通过ML算法再现的常见的人类偏见。
- 在训练模型之前,主动探索数据以确定偏差来源。
- 评估偏差的模型预测。
课程:developers.google.com/machine-learning/crash-course/fairness/video-lecture