ad
新商报网 > 要闻

OpenAICEO:大语言模型规模已接近极限,并非越大越好

2023-04-16 09:28 新商报网                     来源: IT之家   阅读量:5090   

感谢IT之家网友 肖战割割 的线索投递!

,OpenAI 的联合创始人兼 CEO 萨姆?奥尔特曼在麻省理工学院“想象力行动”活动上接受了采访,谈到了大语言模型(LLM)的发展趋势和安全问题。

奥尔特曼认为,我们正在接近 LLM 规模的极限,规模越大并不一定意味着模型越好,而可能只是为了追求一个数字而已。LLM 的规模不再是衡量模型质量的重要指标,未来将有更多的方式来提升模型的能力和效用。他将 LLM 的规模与过去芯片速度的竞赛进行了类比,指出今天我们更关注芯片能否完成任务,而不是它们有多快。他表示,OpenAI 的目标是为世界提供最有能力、最有用、最安全的模型,而不是为了参数数量而自我陶醉。

IT之家注意到,奥尔特曼还回应了一封要求 OpenAI 暂停开发更强大 AI 六个月的公开信,他表示他同意在能力越来越强大的情况下,安全标准也要提高,但他认为信件缺乏技术细节和准确性。他说,OpenAI 在发布 GPT-4 之前已经花了六个月以上的时间来研究安全问题,并邀请外部审计和“红队”来测试模型。“我也同意,随着能力变得越来越强,安全标准必须提高。但我认为这封信缺少了关于我们需要暂停的大部分技术上的细微差别 —— 这封信的早期版本声称我们正在训练 GPT-5。我们没有,而且在一段时间内也不会,所以从这个意义上说,这有点愚蠢。但我们在 GPT-4 的基础上还在做其他事情,我认为这些事情有各种安全问题需要解决,但信中完全没有提到。因此,我认为谨慎行事,并对安全问题越来越严格,这一点非常重要。我不认为建议是解决这个问题的最终方法,”他说。

奥尔特说,OpenAI 已经在这个领域工作了七年,付出了很多努力,而大多数人都不愿意这样做。他说,他愿意公开讨论安全问题和模型的局限性,因为这是正确的事情。他承认有时候他和其他公司代表会说一些“蠢话”,结果发现是错误的,但他愿意冒这个风险,因为这项技术需要对话。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

责任编辑:谷小金
bg6