设计以人为本的人工智能:让人类决策者始终在中心

随着人工智能的迅猛发展,我们该如何高效地将其融入生活与工作?斯坦福商学院运营、信息与技术副教授Jann Spiess正致力于探索如何设计算法,使其最大限度地支持而非取代人类决策者,从而弥合技术“承诺”与实际“应用”之间的差距。

当预测型机器被应用到现实场景中时,这项研究显得尤为重要。越来越多的实证证据表明,在人工智能辅助下做出的高风险决策,往往并不比人类独立做出的决策更好。例如,在信用评估中,过度依赖人工智能可能会导致对风险评分的误读;在社交媒体上,模型可能会基于某些词语识别“有害言论”,从而出现误判。这些例子都表明,人工智能技术的卓越能力,并未自动转化为成功的实践应用。

Spiess指出:“目前我们在‘人机界面’设计方面的研究还远远不够。” 他继续说道,“我们现在关于人工智能的讨论焦点是错的,大家都在问‘AI是否比人更强?’ 但我认为,更该问的是:‘人工智能应该如何与人类形成互补?’”

当前的人工智能发展更多的是关注“能力”,而非“可用性”,这就带来了各种问题,使得用户在使用人工智能时反而可能做出糟糕的决策。例如,如果用户过度依赖算法,可能会忽视那些算法并不知晓但却重要的上下文信息。而如果用户觉得算法的建议太僵化、复杂或不相关,也可能完全忽略这些建议,回归自己的判断,从而错失人工智能本可能带来的优势。还有一种情况是“误解”:用户可能并不真正了解算法的运作逻辑或其局限性,却依然照单全收地采纳其建议。

Spiess提出,一种更加周到的人机交互设计,必须考虑到人类是如何响应算法推荐的。他说:“最好的算法,是能够考虑人类将如何与其提供的信息互动的算法。”

在一篇最新论文中,Spiess与宾夕法尼亚大学沃顿医疗分析实验室的Bryce McLaughlin共同提出了一个概念性设计框架,模拟人类如何响应算法建议,并提出了一种不同的人工智能工具的构建方式。这种方法被称为“互补型”算法,目标是优化人机协作,而非完全绕过人类输入。

更好的决策,带来更佳结果

为了验证该方法的有效性,研究人员设计了一项模拟招聘实验,参与者在不同层级的算法辅助下做出25次招聘决策。结果显示:使用“互补型”算法(即在判断人类可能不确定或容易出错的情况下才给出选择性建议)的实验参与者做出了最准确的决策,表现优于使用“纯预测型”算法的参与者和完全没有算法支持的参与者。

“最好的算法,是能够考虑人类将如何与其提供的信息互动的算法。”
– Jann Spiess

这个积极的结果,正在被Spiess及其团队在多个研究项目中进一步验证。Spiess表示:“在提升决策质量从而改善结果方面,人工智能大有可为。但与此同时,这也带来了新的问题,比如:‘我该如何设计一个算法来支持公共或社会决策?’ 如果我们能学会如何利用大数据,在透明且公平的流程中大规模地提升政策设计,也许我们就能开发出可以真正兑现人工智能承诺的算法。”

Spiess特别关注那些在资源有限情境下的应用场景,比如:如何在预算紧张的学区安排最需要的辅导教师。

他提出,可以借鉴商业领域“收益最大化”的思维模式来提升社会影响力。“广告可以精准投放,那么社会干预措施是否也能更好地被精准投放?这类决策往往代价高昂,如果能用算法优化大规模的资源配置,那在许多目前尚无清晰解法的领域中,就可能实现重大突破。”

Spiess指出,这类问题正是斯坦福商学院具备独特优势去回答的,并引用了经济学教授、Golub Capital社会影响实验室主任Susan Athey等同事的观点。

“想要真正提供这些解决方案,既需要有技术能力,也要理解应用背景,而且能够对人类因素进行建模。我们恰好具备这些条件,也有丰富的研究传统。” Spiess说,“而且,我们身处硅谷,正好拥有将这些项目付诸实践的工具与资源。”