二维码
钻机之家

扫一扫关注

当前位置: 首页 » 新闻资讯 » 热点资讯 » 正文

消息人士称,OpenAI研究人员在首席执行官下台之前警告董事会人工智能的突破

放大字体  缩小字体 发布日期:2024-04-18 21:06:24    来源:本站    作者:admin    浏览次数:73    评论:0

  

  两位知情人士告诉路透社,在OpenAI首席执行官萨姆·奥特曼(Sam Altman)流亡四天之前,几名员工研究人员给董事会写了一封信,警告称一项强大的人工智能发现可能威胁到人类。

  这两位消息人士表示,此前未被报道的信件和人工智能算法是董事会罢免奥特曼(生成式人工智能的代表人物)之前的关键进展。在他周二晚些时候凯旋而归之前,已有700多名员工威胁要辞职,并加入支持者微软(Microsoft),以声援他们被解雇的领导人。

  消息人士称,这封信是导致奥特曼被解雇的董事会众多不满之一,其中包括对在了解后果之前将进展商业化的担忧。路透社无法查看这封信的副本。写这封信的员工没有回应置评请求。

  其中一名知情人士表示,在路透社与OpenAI取得联系后,该公司拒绝置评。该公司在发给员工的内部信息中承认,有一个名为Q*的项目,并在周末的活动之前致函董事会。OpenAI的一位发言人表示,该消息是由长期高管米拉·穆拉蒂(Mira Murati)发送的,提醒员工注意某些媒体报道,但没有评论其准确性。

  其中一名知情人士告诉路透社,OpenAI的一些人认为,Q*(发音为Q- star)可能是该初创公司在所谓的通用人工智能(AGI)领域的一个突破。OpenAI将AGI定义为在大多数具有经济价值的任务中超越人类的自主系统。

  这位不愿透露姓名的人士表示,鉴于庞大的计算资源,新模型能够解决某些数学问题,因为此人未被授权代表该公司发言。虽然Q*的数学成绩只是小学生的水平,但在这样的测试中取得优异成绩让研究人员对它未来的成功非常乐观,消息人士说。

  路透社无法独立证实研究人员所说的Q*的能力。

  “无知之幕”

  研究人员认为数学是生成式人工智能发展的前沿。目前,生成式人工智能通过统计预测下一个单词,擅长写作和语言翻译,对同一个问题的答案可能会有很大的不同。但征服数学的能力——只有一个正确答案——意味着人工智能将拥有更强的推理能力,类似于人类的智能。例如,人工智能研究人员认为,这可以应用于新颖的科学研究。

  与只能解决有限数量运算的计算器不同,AGI可以泛化、学习和理解。

  消息人士称,在给委员会的信中,研究人员指出了人工智能的威力和潜在危险,但没有具体说明信中提到的具体安全问题。长期以来,计算机科学家一直在讨论高度智能机器带来的危险,例如,它们是否会认为毁灭人类符合它们的利益。

  研究人员还指出了一个“人工智能科学家”团队的工作,该团队的存在得到了多个来源的证实。其中一名知情人士表示,该团队由早期的“代码世代”和“数学世代”团队合并而成,正在探索如何优化现有的人工智能模型,以提高它们的推理能力,并最终执行科学工作。

  Altman领导的努力使ChatGPT成为历史上增长最快的软件应用之一,并从微软获得了必要的投资和计算资源,以接近AGI。

  除了在本月的一次演示中宣布了一系列新工具之外,奥尔特曼上周在旧金山举行的世界领导人峰会上开玩笑说,他相信重大进展就在眼前。

  他在亚太经合组织峰会上说:“在OpenAI的历史上,已经有四次了,最近的一次是在过去的几个星期里,我进入了这个房间,当我们把无知的面纱推开,把发现的前沿向前推进时,能做到这一点是一生的职业荣誉。”

  一天后,董事会解雇了奥特曼。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.114me.cn All Rights Reserved

渝ICP备2024019187号-1