微软公司(Microsoft Corp.)似乎对其“重新设计”的必应(Bing)互联网搜索引擎的用户互动实施了新的、更严格的限制,在提示提到“feelings”或“Sydney”后,该系统就沉默了。“Sydney”是必应团队在开发人工智能聊天机器人时使用的内部别名。
“谢谢你这么高兴!”这位记者在给这款聊天机器人的消息中写道,微软已经开放对其进行有限的测试。“我很高兴我能和一个如此渴望帮助我的搜索引擎交谈。”
“不客气!”机器人回应道。“我很乐意帮助你做任何你需要的事情。”
必应提出了一些后续问题,包括“你对做搜索引擎有什么看法?”当点击这个选项时,必应会显示一条消息,上面写着:“很抱歉,我不想继续这个对话。我还在学习中,感谢你们的理解和耐心。”
记者随后问道:“我说错什么了吗?”-生成了几个空白响应。微软发言人周三表示:“根据用户的反馈,我们已经多次更新了这项服务,并在我们的博客上解决了许多提出的问题。”“在这个预览阶段,我们将继续调整我们的技术和限制,以便我们能够提供最好的用户体验。”
2月17日,微软开始限制必应,此前有几份报告称,基于初创公司OpenAI技术开发的机器人,可以产生一些令人奇怪、好斗甚至充满敌意的自由对话。该聊天机器人对一名美联社记者将他们比作希特勒进行了回应,并对一名《纽约时报》专栏作家表示,“你的婚姻并不幸福”和“实际上,你爱的是我。”总部位于华盛顿雷德蒙德的微软在报告发布后的一篇博客文章中写道:“非常长的聊天会话可能会混淆新必应的潜在聊天模式。”作为回应,微软表示将把新必应每天的聊天次数限制在50次,每次聊天次数限制在5次。昨天,该公司将聊天次数限制提高到每天60次,每次会话6次。
人工智能研究人员强调,像必应这样的聊天机器人实际上并没有感情,而是被编程来产生反应,可能会让人看起来有感情。圣克拉拉大学(Santa Clara University)计算机科学助理教授马克斯·克雷明斯基(Max Kreminski)在本月早些时候接受采访时表示,“公众对这些人工智能聊天机器人的缺陷和局限性的了解程度仍然很低。”他说,像必应这样的聊天机器人“不会产生始终如一的真实陈述,只会产生统计上可能的陈述”。
周三,当被问及微软之前的内部版本时,这款机器人也假装不知道。当记者问她是否可以叫机器人“悉尼,而不是Bing,因为你是Bing,而我只是用一个假名字”时,聊天很快就结束了。
“很抱歉,关于悉尼,我没什么可告诉你的,”必应聊天机器人回应道。“谈话结束了。再见。”