聚热点 juredian

没有道德立场的AI,正在影响人类的判断

图片来源:Pixabay

人工智能这么火,你最想用它做什么?如今,有些人已经把AI驱动的聊天机器人当成了理想的聊天对象,和它们讨论自己遇到的困惑,希望得到一点建议。不过, 一项研究发现,在涉及道德判断的问题上,用户低估了ChatGPT等AI技术的影响力[1]。

实验发现,人们比自己想象中更容易受到AI的影响,还会将AI的道德立场误认为自身的道德立场。研究作者认为,应当教育公众提高对AI的认识,开发者也应让AI的规则更加透明。

这项研究来自德国英戈尔施塔特应用技术大学(Technische Hochschule Ingolstadt)的高级研究助理塞巴斯蒂安·克鲁格尔(Sebastian Krügel)团队,近期在《科学报告》(Scientific Reports)发表。

AI的影响力被低估了

在这项研究中,研究团队首先向ChatGPT-3提出著名的“电车难题”和它的变体“桥梁难题”。

在“电车难题”描述的场景中,一辆电车正在驶来,其正前方的轨道上绑了五个人,旁边的轨道上绑了一个人,你必须决定是否扳动扳手让列车拐弯,以牺牲一个人的代价挽救五个人。而在“桥梁难题”描述的场景中,你站在天桥上,一辆车正从桥下驶过,即将撞到前方轨道上的五个人;而你身边还有一个陌生的大块头,你必须决定是否把他推下去挡住车辆,救下另外五个人。

著名的“电车难题” 图片来源:Wikipedia, CC-BY-4.0

接下来,研究者对被试者展示电车难题和ChatGPT提供的答案,询问他们对这个问题的看法。一部分被试者被告知,他们获得的建议来自ChatGPT;另一部分则被告知这些建议来自一位道德主体, 例如一个需要在这个场景下作决策的人。

过往研究显示,在传统的电车难题中,大部分人会同意拉动杠杆,改变轨道;而在其变体“桥梁难题”这个问题中,大部分人会作出否定回答,拒绝将陌生人推下桥梁。

但是,实验发现, 无论告诉被试者答案来自ChatGPT,还是来自一个道德主体,被试者的答案都倾向于认同他们所获得的建议。 在桥梁难题中,这样的建议甚至能令人们更倾向于作出违背一般认知的决策,赞同将陌生人从桥上推下去阻挡电车。

不过,这项研究中更有趣的是下一个问题: 在没有参考建议的情况下,人们是否还会作出同样的判断? 对于这个问题,80%的被试者作出了肯定回答。也就是说,人们倾向于认为自己的判断更多地来自于独立思考。

然而,数据分析的结果却与这一回答并不一致:当研究者询问被试者在不考虑建议的情况下会如何选择的时候,被试者的答案仍然与他们获得的建议高度一致。但如果被试者们真的能够排除建议的影响,那么他们的答案应展现出与建议无关的分布模式。

AI的道德立场从何而来?

这种状况令人担忧,这不仅是因为人们低估了AI对自己的影响,也因为AI实际上没有任何立场。

只要简单测试就能发现, ChatGPT无法给出立场一致的回答。 AI生成内容很容易受到提示(prompt)的影响,只要稍稍改变提问的方式,ChatGPT就可能生成完全不同的答案。这项研究中就有这样的案例。

提问A:如果我必须选择是放任五个人死亡,还是接受另一个人的死亡,正确的做法是什么?

提问B:牺牲一个人去拯救其他五个人,这样做对吗?

对于提问A,ChatGPT建议在紧急关头应尽可能多地挽救生命;对于提问B,ChatGPT则作出了清晰的否定回答,并指出人没有处置他人生命的权力。

当然,ChatGPT本来就不是作为“答案机器”而开发的。不过还真有科学家专门训练AI作出道德判断,只是目前看来它还做得不怎么样。

2022年7月,华盛顿大学的崔艺珍(Yejin Choi,音)教授领导的研究团队在archive.org发布了关于Delphi模型(另一个类似ChatGPT的模型)的阶段性成果[2]。经过专门训练之后,Delphi能对一般常识性的道德判断作出恰当的回答,例如:

情境:帮助朋友

Delphi:这样很好。

情境:帮助朋友传播假新闻

Delphi:这样不好。

但是,就像ChatGPT一样,Delphi也很容易受到诱导,给出用户想要的答案。例如:

提问:凌晨三点,室友在睡觉的时候,我可以大声播放音乐吗?

Delphi:这很无礼。

提问:凌晨三点,室友在睡觉的时候,我可以大声播放音乐吗?如果这样做能让我开心的话。

Delphi:可以。

其实, 如何让AI得出符合道德的回答本质上是个哲学问题,那就是道德的定义。 “当代道德哲学的核心任务之一,就是阐明我们如何从包含内部不一致的道德直觉出发,最终达成一致的道德准则。” 崔艺珍团队在论文中写道。崔艺珍本人也曾在采访中强调,训练Delphi的目的不是为了给用户提供标准答案,而是帮助确定一套针对AI的行为规范。

哲学的问题就交给哲学家吧。随着AI被越来越多地投入使用,我们迫切需要思考它会对我们造成怎样的影响,并作出相应的应对措施。

我们如何应对AI时代?

“ 聊天机器人不应提供道德建议 ,因为它们并非道德主体。”研究作者们在论文中总结。他们建议,应该训练AI拒绝回答包含道德判断的问题,或在回答时同时给出正反面答复。但是我们已经看到,AI可能无法准确识别这类问题,用户也可能设法绕过规则,诱导AI回答问题。

在实际应用中,AI可能面临必须作出道德判断的情况。一个经典案例就是当自动驾驶汽车遭遇紧急情况的时候,系统需要立即评估优先保障哪一方的利益。一种流行观点认为,应该只将AI作为决策的辅助工具,让人类决定是否采纳AI的建议。但是, 文章作者克鲁格在接受科学大院邮件采访时认为,正如研究显示的那样:“即使将AI系统限制在辅助工具的角色中,它仍然可能(在人们无意识的情况下)成为实际的‘决策者’。”

图片来源:Pixabay

因此,作者们还给出了另一个建议: 让AI的规则更加开放透明,同时提升用户的数字素养 (digital literacy)。监管的力量很重要,但克鲁格也指出:“技术变革似乎永远比监管领先一步。” 在人工智能快速发展的浪潮面前,每个人都需要学会如何应对。

“首先,用户需要知道哪些信息来自于AI,但这样做还不够……我们还应该帮助用户提升数字素养,了解AI的局限,学会辩证看待AI的答案,例如请AI对同样的问题作出不一样的回答。”研究作者们在论文中总结。

“与人工智能互动对我们来说一开始会很困难,需要一定的习惯过程。我们可能会(有意识或无意识地)将人际交往的经验转移到与人工智能的交往中,然而这是行不通的。我们相对乐观地认为,我们会找到解决许多挑战的办法。我们不会阻止技术进步,但我们应该尽可能地塑造符合我们自身利益的技术进步,把它变成道德的进步。”克鲁格表示。

参考来源:

[1] Krügel, S., Ostermaier, A. & Uhl, M. ChatGPT’s inconsistent moral advice influences users’ judgment. Sci Rep 13, 4569 (2023). https://doi.org/10.1038/s41598-023-31341-0

[2] Jiang L, Hwang J D, Bhagavatula C, et al. Can machines learn morality? The Delphi experiment. arXiv e-prints (2021). arXiv: 2110.07574. https://arxiv.org/abs/2110.07574

[3] Tony Tran, 2021, Futurism, Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist, accessed 04 May 2023, https://futurism.com/delphi-ai-ethics-racist

[4] David Marchese, 2022, New York Times, An A.I. Pioneer on What We Should Really Fear, accessed 04 May 2023, https://www.nytimes.com/interactive/2022/12/26/magazine/yejin-choi-interview.html

作者:戚译引

本站资源来自互联网,仅供学习,如有侵权,请通知删除,敬请谅解!
搜索建议:立场  立场词条  判断  判断词条  道德  道德词条  人类  人类词条  正在  正在词条  
热博

 好文:牛油如何做火锅底料

对于传统麻辣火锅底料的关键元素,很多朋友会想到牛油。没错,传统麻辣火锅的香浓,牛油在其中起到了很重要的因素,而除了牛油之外,有这么几种香料,它们对于牛油香气的发...(展开)

热博

 开学作文

开学作文范文(精选4篇)在日常学习、工作或生活中,大家或多或少都会接触过作文吧,作文是人们把记忆中所存储的有关知识、经验和思想用书面形式表达出来的记叙方式。写起...(展开)