避免机器学习“不良结果”的框架
2019年12月11日 由 TGS 发表
176651
0
斯坦福大学和马萨诸塞大学阿姆赫斯特分校的研究人员介绍了一个设计机器学习算法的框架,该算法可以使潜在用户更容易指定安全和公平约束。据发表的论文表述——当前的机器学习算法“经常表现出不受欢迎的行为,从各种类型的偏见到造成经济损失或延迟医疗诊断。”更加糟糕的是,避免这些陷阱的责任往往落在算法的用户身上,而不是算法的设计者身上,这无疑是极为不合理的。
研究人员开发的这个新框架,能够让用户更轻松地约束算法的行为,完全不需要大量的领域知识或额外的数据分析。作者表示:这将确保算法良好运行的负担从算法的用户,转移到算法的设计者身上。
由于机器学习算法对社会的影响越来越大,研究人员认为,最重要的是建立保障措施,以防止各种“不良结果”。因为如果这些结果可以用数学定义,那么用户和算法都可以学会如何避开它们。
框架的第一作者公开表示:该框架更容易确保公平,它能够通过生成“塞尔登算法”,以避免对众多行业造成损害。该框架是一种工具,可指导研究人员创建可轻松应用于现实问题的算法。
“如果我使用Seldonian算法来治疗糖尿病,那么我就可以对机器说,'当您试图改善胰岛素泵中的控制器时,请不要进行会增加低血糖发生频率的改变。”研究人员举例解释道,“大多数算法都没有给这种类型的应用进行行为约束;这就是我们灵感的来源。”
框架分为三个步骤。首先,定义算法设计过程的目标。其次,定义用户将使用的接口。最后,创建算法。为了证明其可行性,研究人员利用该框架设计了回归、分类和强化学习算法。
研究人员在一个学生成绩数据集上进行了测试对比,最终结果表明,使用标准ML方法设计的常用回归算法,在不考虑公平性的情况下,对女学生有歧视。对此,研究人员表示:相比之下,用户可以很容易地用我们的Seldoistic回归算法来限制观察到的性别歧视行为。
“使用我们的框架所设计的算法,不仅仅是现有应用中ML算法的替代。”研究人员在描述论文中最后写道,“我们希望,它可以为以前被认为使用ML风险太大的新应用,铺平道路。”