o3来了!编程能力跻身人类全球前200,破解陶哲轩说难的数学测试,北大校友任泓宇现身直播间
西风 来源: 量子位“AGI重要里程碑”
OpenAI公布下一代模型,o1之后直接o3!
“双12”直播活动最后一天,终于来了个大的,奥特曼本人也再次现身直播间。
o3相比o1最突出的成绩,一是顶尖程序员竞赛CodeForces分数超过2700,人类超过这个分数的目前只有不到200个。
二是在为AGI准备的测试ARC-AGI上分数从32%跃升到了75.7%、87.5%。
为什么有两个成绩呢?
因为o3有低思考程度和高思考程度两种设置。
ARC-AGI是Keras之父François Chollet发起的测试基准,典型题目为图形逻辑推理。
另一项最难数学测试EpochAI Frontier Math,包含最新未公开前沿题目。
此前陶哲轩对这项测试的第一印象是“可能难住AI好几年”。
o3比之前SOTA从2分提升到25分。
人类专业数学家解决其中一道题目也要花费数小时到数天,现在o3只需要思考几分钟。
这次还公布了o3-mini,支持低中高三种思考程度设置。
主要展示了代码能力,低设置下o3-mini和o1-mini差不多,高设置已经超过了o1正式版。
参与o3-mini研究的北大校友任泓宇,现场展示了新模型的编程能力。
他使用了特殊版本的ChatGPT,称为ChatGPT α。
任务如下:
o3-mini的思考过程用了38秒,然后代码秒出,一次运行成功。
这个演示可能不太直观,但是看得没去现场的另一位OpenAI研究员Aidan Clark直出汗。
总结一下,就是o3-mini用38秒给自己写了一个UI,通过API调用“自己”。
后续演示中,任泓宇要求o3-mini在这个UI中编写并执行一个脚本,来评估“它自己”在低思考程度下、在GPQA数据集上的表现。
脚本正确运行了评估,返回结果数值61.62%,与正式评估结果基本一致。
是不是有一点科幻的感觉了。
可惜呐~ o3和o3-mini目前都是早期预览状态,只给看不给玩。
安全研究者可以在OpenAI官网申请早期访问权限。
北大校友、GPT-4o核心开发者现身直播间
这场直播中另外值得关注的,就是新出场的北大校友任泓宇了 (最左边) 。
他去年刚加入OpenAI担任研究科学家,主要负责语言模型训练,是GPT-4o的核心开发者、GPT-Next项目组成员。
直播中最新透露,九月份的o1-mini他也有参与,证实了此前传闻中o1-mini主要由三位华人负责 (另两位是Kevin Lu和Jiahui Yu) 。
任泓宇博士毕业于斯坦福大学。加入OpenAI之前,他在Apple、Google、NVIDIA 和Microsoft均有大量研究实习经历。
One More Thing
笑死,最后一天顶着圣诞帽的“青蛙”直接被摆到了最前面:
其实,之前每一场它们都在,不过是被摆在了后面的架子上,而且数量随直播天数增加。
昨天是直播第11天,圣诞帽“青蛙”是酱婶儿的:
你数出来有多少圣诞“青蛙”了吗?
版权所有,未经授权不得以任何形式转载及使用,违者必究。