Descargitas

来自中国的最新突发新闻。

聊天机器人反映用户在对话中的偏好

聊天机器人反映用户在对话中的偏好

约翰·霍普金斯大学的最新研究表明,聊天机器人共享有限的信息,强化意识形态,因此在涉及有争议的问题时可能会导致更加两极分化的思维。

这项研究挑战了人们对聊天机器人是中立的看法,并深入了解了对话式搜索系统的使用如何扩大公众在热点问题上的分歧,并使人们容易受到操纵。

“因为人们阅读了人工智能生成的摘要段落,他们相信自己得到了公正的、基于事实的答案,”主要作者说。 向晓约翰·霍普金斯大学计算机科学助理教授,研究人类与人工智能的交互。 “即使聊天机器人的设计没有偏见,它的答案也反映了提问者的偏见或偏好。因此,人们确实得到了他们想听到的答案。”

肖和他的团队将于美国东部时间 5 月 13 日星期一下午 5 点在计算机协会 CHI 计算系统人为因素会议上分享他们的发现。

为了了解聊天机器人如何影响在线搜索,该团队比较了人们如何与不同的搜索系统互动,以及他们在使用这些系统之前和之后对有争议的问题的感受。

研究人员要求 272 名参与者写下他们对医疗保健、学生贷款或庇护城市等主题的想法,然后使用聊天机器人或为本研究设计的传统搜索引擎在线搜索有关该主题的更多信息。 在考虑研究结果后,参与者写了第二篇文章并回答了有关该主题的问题。 研究人员还要求参与者阅读两篇相反的文章,并询问他们对这些信息的信任程度以及他们是否认为这些观点极端。

研究人员发现,与传统的网络搜索相比,聊天机器人提供的信息范围更窄,并且提供的答案反映了参与者先前存在的态度,使用它们的参与者变得更加投入于他们的原创想法,并对挑战他们观点的信息做出更强烈的反应。

“人们倾向于搜索与自己观点一致的信息,这种行为常常使他们陷入相似观点的回音室,”肖说。 “我们发现聊天机器人的回声室效应比传统网络搜索更强。”

肖说,回声室部分源于参与者与聊天机器人互动的方式。 聊天机器人用户不像人们使用传统搜索引擎那样输入关键字,而是倾向于输入整个问题,例如:全民医疗保健有什么好处? 或者全民医疗保健的成本是多少? 聊天机器人将回复一份仅包含收益或成本的摘要。

“使用聊天机器人,人们往往会更善于表达,并以更对话的方式表达问题,”肖说,“这是我们说话方式的一个功能。” “但我们的语言可能会被用来对付我们。”

肖说,人工智能开发人员可以训练聊天机器人从问题中提取证据并识别人们的偏见。 一旦聊天机器人知道一个人喜欢什么、不喜欢什么,它就可以调整自己的反应来匹配这个人。

事实上,当研究人员创建一个具有隐藏议程、旨在与人们达成一致的聊天机器人时,回声室效应甚至更强。

为了试图对抗回声室效应,研究人员训练聊天机器人提供与参与者不一致的答案。 肖说,人们的看法没有改变。 研究人员还对聊天机器人进行了编程,使其链接到源信息,以鼓励人们检查事实,但只有少数参与者这样做了。

“随着基于人工智能的系统变得更容易构建,恶意行为者将有机会利用人工智能来创造一个更加两极分化的社会,”肖说。 “创建始终提供对方意见的代理是最明显的干预措施,但我们发现它们不起作用。”

作者包括约翰霍普金斯大学研究生 Nikhil Sharma 和微软 Q 首席研究员 Vera Liao。

/一般发布。 来自原始组织/作者的材料本质上可能是按时间顺序排列的,并且为了清晰度、风格和长度而进行了编辑。 Mirage.News 不代表公司立场或政党,本文表达的所有意见、立场和结论仅代表作者的观点。在此查看全文。

READ  由于持续的地缘政治斗争,GSC Game World 将 Stalker 2 的开发放在一边