新的机器学习算法提供安全性和公平性保障

科学家们提出了一种设计机器学习算法的新框架,使算法用户能够更便捷地设定安全性和公平性约束。

马萨诸塞大学阿默斯特分校的机器学习研究员、该研究的主要作者菲利普·托马斯表示,确保机器行为的安全和公平至今仍是一个难题。"当有人应用机器学习算法时,很难控制其行为,"他指出。他与合著者认为,这可能导致从自动驾驶汽车、胰岛素泵到刑事判决等各个方面所依赖的算法产生不良后果,带来风险。

本周,托马斯与他在马萨诸塞大学阿默斯特分校的同事尤里·布伦、安德鲁·巴托和研究生斯蒂芬·吉格尔,巴西联邦大学里奥格兰德德尔索尔分校的布鲁诺·卡斯特罗·达席尔瓦,以及斯坦福大学的艾玛·布伦斯基尔在《科学》杂志上撰文,介绍了一种新的机器学习算法设计框架,该框架能让算法用户更轻松地指定安全性和公平性约束条件。

"我们将基于新框架创建的算法称为'塞尔东算法',灵感来源于阿西莫夫笔下的哈里·塞尔东,"托马斯解释道。"如果我将塞尔东算法用于糖尿病治疗,我可以指定不良行为指的是危险的低血糖水平(即低血糖症)。我可以对机器说:'在尝试改进胰岛素泵控制器的同时,不要做出会增加低血糖发生频率的改变。'大多数算法无法让你对行为施加这种类型的约束;这在早期设计中并未包含。"

"但是,随着机器学习算法对我们生活的影响越来越大,让确保公平性和避免伤害变得更加容易正变得日益重要,"他说。

然而,"最近一篇论文列出了机器学习中公平性的21种不同定义。重要的是,我们允许用户选择适合其预期应用场景的定义,"他补充道。"塞尔东算法附带的接口正是让用户能够做到这一点:为他们的应用场景定义什么是不良行为'。"

在阿西莫夫的《基地》系列中,塞尔东与他笔下的《机器人》系列处于同一个宇宙。托马斯解释道:"一切都分崩离析,银河帝国正在瓦解,部分原因在于机器人三定律要求确定性。由于需要那种级别的安全性,机器人因无法决断而瘫痪,因为它们无法在确定不会因自身行为伤害任何人类的前提下采取行动。"

塞尔东提出的解决方案是转向基于概率进行安全推理。"这与我们正在做的工作非常契合,"托马斯说。他和同事提供的这种新方法允许引入概率性约束,并要求算法指定用户告知其约束内容的方式。他说:"该框架是面向机器学习研究人员的工具。它能指导研究人员创建出更易于用户负责任地应用于现实问题的算法。"

为了测试这个新框架,他们通过创建一个带有约束条件的塞尔东算法,将其应用于预测巴西一个包含43,000名学生数据集的平均绩点。该算法成功避免了多种类型的不良性别偏见。在另一项测试中,他们展示了算法如何在保证不增加低血糖发生频率的前提下,改进胰岛素泵的控制器。

托马斯说:"我们相信这个领域还有巨大的改进空间。即使我们的算法由简单的组件构成,也取得了令人印象深刻的结果。我们希望机器学习研究人员能继续使用我们的框架,开发出更新、更复杂的算法,这些算法可以被负责任地应用于那些过去认为机器学习风险过高的场景。这是对其他研究人员投身于这一领域研究的号召。"