英国官员警告各组织不要将人工智能驱动的聊天机器人整合到他们的业务中,他们表示,越来越多的研究表明,机器人可能被欺骗去执行有害的任务。
在定于周三(8月30日)发表的两篇博客文章中,英国国家网络安全中心(NCSC)表示,专家们还没有掌握与算法相关的潜在安全问题,这些算法可以产生类似人类的互动,被称为大型语言模型(llm)。
人工智能工具的早期用途是作为聊天机器人,一些人设想,它们不仅会取代互联网搜索,还会取代客户服务工作和销售电话。
NCSC表示,这可能会带来风险,特别是如果这些模型被插入到组织业务流程的其他元素中。学者和研究人员已经多次找到了颠覆聊天机器人的方法,比如向它们输入流氓指令,或者欺骗它们绕过自己内置的护栏。
例如,如果黑客的查询结构正确,银行部署的人工智能聊天机器人可能会被骗进行未经授权的交易。
NCSC在一篇博客文章中表示:“使用法学硕士(llm)构建服务的组织需要小心,就像他们使用测试版产品或代码库一样。”测试版软件指的是实验性软件版本。
“他们可能不会让该产品代表客户进行交易,也不会完全信任它。法学硕士也应谨慎对待。”
世界各国政府都在努力应对法学硕士(llm)的崛起,比如OpenAI的ChatGPT,企业正在将其纳入销售和客户服务等广泛的服务中。
人工智能的安全影响也仍在受到关注,美国和加拿大当局表示,他们已经看到黑客接受了这项技术。