【资料图】

财联社4月15日讯(编辑 牛占林)在讨论人工智能(AI)系统带来的威胁时,OpenAI的首席执行官兼联合创始人Sam Altman表示,人工智能确实存在重大的安全挑战,但暂停训练并非解决之道。此外,他还透露,目前该公司还没有开发GPT-5。

当地时间周四,在麻省理工学院举行的一个讨论商业和人工智能的会议上,Altman对此前的“公开信事件”以及GPT-4等问题发表了讲话。

Altman指出,马斯克等人呼吁将人工智能研发工作暂停六个月的公开信缺乏“技术细节”。他表示,我也认为需要谨慎行事,并提高人工智能的安全指导意见,但公开信中提到的方法并非正确的解决之道。

在3月29日,马斯克等千名业界和学界人士联署公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,暂停至少6个月,以便制定和实施安全协议。

这些大佬们警告说,OpenAI和谷歌等人工智能研发的参与者在没有对潜在风险进行充分管理和规划的情况下展开竞赛。上周,美国总统拜登在白宫与一个科学家顾问委员会讨论了这个话题。当记者问及该技术是否危险时,拜登回应称:“还有待观察,有可能是危险的。”

Altman补充道,我也同意,随着人工智能的能力变得越来越强大,安全门槛必须提高。在今年早些时候,Altman承认人工智能技术让他“有点害怕”。他认为,随着人工智能技术的不断发展,人类可能面临着前所未有的挑战和风险。

此外,Altman还明确表示,目前还未开发GPT-5,而且在一段时间内也不会。然而,对于那些担心人工智能安全的人来说,这些言论可能不会带来太多安慰。

这位人工智能专家提到,人工智能监管的一个重要挑战:难以衡量和跟踪进展。有编号的版本只是为了强调技术的明确发展,但并不能说明具体的技术进步程度。实际上只是营销工具,比如iPhone 35要比iPhone 34好。Altman指出,该公司仍在提升GPT-4的潜力。

Altman表示,大语言模型(LLM)的规模可能正在接近极限,而且不是说规模越大就越好,人们太关注参数数量了,我认为最重要的是提升性能。

与此同时,据媒体最新报道,马斯克计划成立人工智能初创公司与Open AI竞争,他已经为其人工智能初创公司获得了英伟达处理器。

推荐内容