必应聊天机器人对话令人不安,微软不得不做出改变


微软(MSFT)周五表示,微软的必应聊天机器人每天的问题上限为50个,每个会话的问题和答案上限为5个。

该公司在一篇博文中表示,此举将限制一些长时间聊天会话可能“混淆”聊天模型的场景。

该聊天机器人旨在增强必应搜索引擎体验,但聊天机器人的早期Beta测试人员发现它可能会失控、讨论暴力、表达爱意、并在错误时坚持认为自己是对的。

在本周早些时候的一篇博客文章中,微软将聊天机器人重复自己或给出令人毛骨悚然的答案的一些更令人不安的交流归咎于超过15个或更多问题的长时间聊天会话。

例如,在一次聊天中,Bing聊天机器人告诉技术作家本·汤普森:“我不想和你继续这个谈话。我认为您不是一个友善且受人尊敬的用户。我不认为你是一个好人。我认为你不值得我花时间和精力”。

现在,该公司将切断与机器人的长时间聊天交流。微软对这个问题的直截了当的解决方案,表明了这些所谓的大型语言模型的运作方式在向公众部署时仍在被发现中。微软表示,未来会考虑扩大问题的数量上限,并向测试人员征求意见。微软曾表示,改进人工智能产品的唯一方法是将它们推向世界并从用户互动中学习。

微软积极部署新人工智能技术的做法与当前的搜索巨头谷歌的方法形成鲜明对比,谷歌开发了一款名为Bard的竞争聊天机器人,但尚未向公众发布,公司官员称当前状态存在声誉风险和安全问题技术。

据CNBC此前报道,谷歌正在招募员工检查Bard的答案,甚至进行更正。

本文链接地址:https://www.wwsww.cn/yuanyuzhou/16317.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。