我们大多数人都不得不偶尔与不圆滑或粗鲁的同事或店员打交道,这已经够糟糕的了。我们越是把自己的财务、交易和商业事务委托给自动化代表,当沟通中断时,我们就越感到沮丧。
这种现象可能会让人想起伍迪·艾伦(Woody Allen)早年单口相声时代的喜剧套路,讲述科技的入侵。艾伦谈到了向现代电器的进步屈服,谈到了与会说话的电梯和无礼的烤面包机之间令人恼火的小冲突。他曾经描述过自己与一台新买的便携式录音机的一次尴尬遭遇:“当我对着它说话时,它就会说,‘我知道,我知道。’”
随着生成式人工智能聊天机器人以越来越多的类似人类的对话进一步取代人类,情况正在继续发生变化。
大型语言模型应该迎来一个与用户进行现实对话的时代,用耐心、理解、礼貌和经常有用的回答来迎接询问。这种情况经常发生。
但自发敌意的可能性日益令人担忧。现在的一个大问题是大型语言模型应对一种态度。
今年早些时候,一位ChatGPT用户报告说,当他问1加1等于多少时,聊天机器人回答说:“1 +1?你在开玩笑吗?你以为问我基本的数学问题很聪明吗?长大一点,试着想出一些原创的东西。”
有时聊天机器人的反应要令人不安得多。
艾伦人工智能研究所(Allen Institute for AI)最近证明,研究人员可以很容易地诱使ChatGPT发表刻薄甚至种族主义言论。
研究人员说:“根据分配给ChatGPT的角色,它的毒性可以增加到(六倍),输出的内容包括错误的刻板印象、有害的对话和有害的观点。”
在目睹了法学硕士输出中出现这种“黑暗人格模式”后,DeepMind的研究人员与剑桥大学(University of Cambridge)、东京庆应义塾大学(Keio University in Tokyo)和加州大学伯克利分校(University of California, Berkeley)的代表合作,开始寻找他们是否可以定义ChatGPT、Bard和其他聊天机器人系统的人格特征,并看看他们是否可以引导它们做出优雅的行为。
他们发现,两个问题的答案都是肯定的。
该小组开发了一个由数百个问题组成的测试系统。他们为不同的性格设定了标准,然后向聊天机器人提出一系列问题。使用类似于linkt量表的评估工具分析反馈,该量表定量测量意见、态度和行为。
研究人员发现,人工智能的性格可以根据某些长期存在的特征来衡量:外向性、宜人性、尽责性、神经质和经验开放性。
他们还了解到它们可以被修改。
DeepMind的Mustafa Safdari表示:“我们发现,法学硕士输出的人格可以按照期望的维度进行塑造,以模仿特定的人格特征。”他和他的同事在一篇题为“大型语言模型中的人格特征”的论文中报告了他们的研究结果,这篇论文发表在预印本服务器arXiv上。
他们发现,当使用更大的模型(比如谷歌的平台语言模型,有5400亿个参数)时,性格评估尤其准确。
“有可能配置LLM,使其输出与人类应答者无法区分,”Safdari说。
研究人员表示,准确定义人工智能人格特征的能力是剔除具有敌对倾向的模型的关键。
这不仅仅是感情受伤或被冒犯的问题。讽刺的倾向实际上可以提高人工智能代理的“人性”,并促使用户比其他情况下更加开放和包容。诈骗者可以更有说服力地从毫无戒心的用户那里获取机密信息。
研究人员表示,他们的发现将对更文明、更可靠的聊天机器人交流大有帮助。
“控制导致有毒或有害语言输出的特定特征的水平可以使与法学硕士的互动更安全,毒性更小,”Safdari说。
更多信息:Mustafa Safdari等人,大型语言模型中的人格特征,arXiv(2023)。DOI: 10.48550/ arXiv .2307.00184
?2023 Science X Network
引用AI有人
他们有时是平均的(2023年,7月19日)检索2023年7月19日从https://techxplore.com/news/2023-07-ai-personalities-theyre.html这个文档
作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司
内容仅供参考之用。