人工智能可以撰写具有说服力的政治信息,那么它们能够改变你的想法吗?

随着大型语言模型的日益普及,它们被用于生成政治信息可能只是个时间问题——如果现在还没有的话。斯坦福商学院的两位教授的新研究探讨了人们会如何回应由人工智能生成的政治说服信息。

“我们感兴趣的是,人工智能生成的信息是否能像人类写得那样具有说服力。” 斯坦福商学院组织行为学(礼聘)教授、政治与社会变迁实验室主任Robb Willer说。他与来自他领导的“政治与社会变迁实验室”以及“斯坦福以人为本人工智能研究院”的团队一起研究了这个问题。“在一系列政策议题上,我们发现的情况都非常一致:无论信息来自人工智能还是人类,它们的说服力大致相当,而读者并不知道信息的来源。”

斯坦福商学院市场营销教授Zakary Tormala则回应了一个不同的问题:一旦人们知道信息是由人工智能而非人类撰写的,这是否会改变他们的反应?他与这个项目的负责人、博士在读生Louise (Yunzi) Lu,以及芝加哥伊利诺伊大学的Adam Duhachek一起,测试当人们认为信息来自人工智能或来自人类时,他们对观点的接受程度是否存在差异。这项研究发现,当人们得知反对立场的观点来自人工智能时,他们反而更愿意倾听。

“我们认为,在这种情境下,人工智能有时可能比人类更有说服力。因为人们会认为人工智能没有劝说意图,没有固有偏见,并且掌握大量信息。” Tormala说,“在我们的研究中,这些因素都会显著提高人们愿意接触由人工智能提出的、与他们自身信念相反的论点的意愿。”

换句话说,Willer研究的是“信息内容”,Tormala研究的是“信息来源”。

大语言模型的论证能力

Willer和同事们一起进行了三项调查,测量参与者在一系列政策上的看法,包括公共场所禁烟、枪支管制、碳税和自动选民登记。参与者阅读了支持这些政策的论述,这些论述由人工智能或人类生成。而对照组则阅读与政策无关的内容。阅读结束时的一项调查测量了参与者的观点是否发生变化。

“唯一不同的是文章的内容,而无论文章由人还是人工智能撰写,都产生了类似的说服效果。” Willer说。值得注意的是,效果最明显的人群是本来就支持该政策的人,人工智能撰写的信息让他们变得更加坚定。

“我们还发现,人们对这些说服性诉求的感知不同。” Willer说。虽然信息的作者没有被告知,但参与者始终认为,人类写作的说服力来自于叙事和个人经历;而大语言模型写作的说服力来自于清晰的逻辑推理和事实呈现。

这一发现与Tormala和Lu的研究相呼应:当人们被告知反对其立场的信息来自于人工智能时,他们会认为人工智能更具信息优势、更少偏见,也更没有明确的说服动机,因此更愿意接受这些观点。

“当一个人试图说服我们时,我们往往本能地不想听。” Tormala说,“尤其当对方站在我们立场的对立面时,我们会下意识认为他们无知、有偏见,只是想赢得争论,于是干脆直接否定。但人工智能在人们眼中是信息充分且更加客观的。”

当信息来自人工智能而非他人时,人们对对立立场的开放程度明显更高,也更愿意真正倾听不同观点。
—Zakary Tormala

Lu带领团队进行了一系列结构高度一致的实验:参与者会收到有关某政策的论点,这些论点与他们已有立场相反。例如,支持疫苗接种的参与者会读到一篇反对疫苗的论述。实际上所有人阅读的内容相同,差别只在于:一部分人被告知这些观点由真人撰写,另一部分人则被告知来自人工智能。

前两个实验显示,相较于专家和普通人的反对观点,当人们认为反对观点来自人工智能时,他们更容易接受。第三个实验进一步显示,相较于社媒达人,当观点被认为来自人工智能时,人们更愿意分享这些观点,并主动寻求更多相关信息。第四个实验发现,当反对立场的“发声者”被认为是人工智能时,人们对对立阵营的敌意明显更低。

Tormala表示:“我们首先看到的是,当信息来自人工智能而不是他人时,人们对不同立场的开放程度更高,更愿意倾听。而且,他们更愿意把这些观点分享给别人,也会开始以更理性的方式看待对方阵营,认为对方‘可能也有道理’,这是一连串由最初的‘开放心态’所触发的连锁反应。”

机器政治时代

Lu指出,这些发现或许能为缓解政治极化问题提供一些“微小但切实可行的工具”。例如,如果社交媒体平台出于善意,希望向客户呈现更平衡、更准确的信息,那么将这些内容标注为‘由人工智能生成’或许反而会提升用户接受不同观点的意愿,也能帮助他们以更少防御性的方式处理分歧。“如果能在大规模层面加以运用,” Lu说,“这或许能在一定程度上帮助缓解政治极化。”

但Tormala也强调,他们的研究并不区分信息是否真实。“如果人们对人工智能生成的信息一概更加开放,那么这同样可能为虚假信息的传播打开大门。我们的结论并不是‘人工智能会拯救世界’,而是:当人们认为信息来自人工智能时,他们的反应机制会发生改变,这种改变可能带来积极后果,也可能带来风险,取决于他们接收到的是什么内容。”

Willer同样指出,这些发现有多重含义。一方面,人工智能的说服效果相对有限。大语言模型可以让政治信息的制作更高效,但它们对观点的影响幅度可能只有一点点,这不至于“动摇社会稳定”。

另一方面,Willer的研究显示,人工智能生成的信息会强化既有信念,这意味着它可能加剧政治极化。他认为,到2026年美国中期选举时,国内或国外的行为者可能利用人工智能大规模制造社交媒体内容,加深美国内部的分裂。

“我们国家的政治话语已经非常负面,而大规模生产人工智能内容并不困难,这可能让情况更糟。” 他说,“人工智能能以各种方式威胁我们已经疲惫不堪的民主,这些可能性令人难以想象。”