人工智能(AI)在过去几年甚至几个月里取得了巨大的进步。发表在《管理科学》杂志上的一项新研究发现,人工智能代理可以像人类一样建立信任。
圣何塞州立大学的吴燕(Diana Wu)表示:“人工智能的类似人类的信任和值得信赖的行为可以从一个纯粹的试错学习过程中产生,人工智能发展信任的条件与人类发展信任的条件相似。”“发现人工智能完全通过自我学习过程模仿人类信任行为的能力,反映了培养对人类信任的条件。”
Wu和来自新南威尔士大学、新南威尔士大学商学院的Jason Xianghua Wu、德克萨斯大学阿灵顿分校的Kay Yut Chen以及德克萨斯大学泰勒分校的Lei Hua表示,这不仅仅是人工智能学习玩游戏的问题;这是朝着创造能够通过纯粹的自我学习互动培养社会智能和信任的智能系统迈出的重要一步。
这篇题为《构建社会智能人工智能系统:基于深度学习的人工智能信任博弈证据》的论文是构建基于多智能体的决策支持系统的第一步,在该系统中,相互作用的人工智能可以利用社会智能来实现更好的结果。
陈说:“我们的研究开辟了新天地,证明人工智能代理可以在经济交换场景中自主地制定类似于人类的信任和可信度策略。”
作者解释说,将人工智能代理与人类决策者进行对比,可以帮助加深对不同社会背景下人工智能行为的了解。
“由于人工智能主体的社会行为可以通过互动学习内生地决定,它也可以为我们提供一种新的工具,用于探索在特定决策场景下响应合作需求的学习行为,”华总结道。
更多信息:Jason Xianghua Wu等人,构建社会智能AI系统:使用深度学习的人工智能代理的信任博弈证据,管理科学(2023)。引文:新的研究表明,人工智能代理可以建立类似于人类的信任(2024,2月21日)检索自2024年2月22日https://techxplore.com/news/2024-02-artificial-intelligence-agents-similar-humans.html此文档受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。