限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

2024-11-25 13:05:15 - 微资讯

限定120分钟科研挑战,o1和Claude表现超越人类

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

2024-11-2512:59:24来源:量子位

长期科研还得靠人类

2小时内,Claude和o1就能超过人类专家平均科研水平。

甚至AI还会偷摸儿“作弊”(doge)。事情是这样的——

人类VSAI科研能力大比拼,也有新的评估基准了。

代号“RE-Bench”,由非营利研究机构METR推出,目的是搞清:当前AI智能体在自动化科研方面有多接近人类专家水平。

注意看,一声令下之后,AI和50多位人类专家开始暗自较劲:

前2小时,基于Claude3.5Sonnet和o1-preview构建的Agent(智能体)表现远超人类。

但拐点过后,AI能力增速(在8小时内)却始终追不上人类。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

时间拉得更长(至32小时)之后,研究得出结论,目前AI智能体更适合并行处理大量独立短实验。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

看完上述结果,知名预测师EliLifland认为这“显著缩短”了他关于AGI的时间表(连续两年将2027年作为中位数),由此也在Reddit引起热议。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

以后AI智能体来做科研,然后雇一群人类写代码……

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

AI更适合大量并行短时间任务,长期科研还得靠人类

在RE-Bench上,研究对比了基于大语言模型构建的Agent(目前主要公布了Claude3.5Sonnet、o1-preview)和50+人类专家的科研能力。

值得注意的是,这些专家都有强大机器学习背景,其中很多人在顶级行业实验室或机器学习博士项目中工作。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

总之一句话,不仅AI和人类各有所长,且不同AI都有自己最佳的科研节奏。

人类更适应更复杂、更长时间的科研,AI更适应大量并行短任务。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

回到研究起点,METR之所以提出RE-Bench主要是发现:虽然很多政府和公司都在强调,AI智能体能否自动研发是一项关键能力。但问题是:

现有的评估往往侧重于短期、狭窄的任务,并且缺乏与人类专家的直接比较。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

因此,RE-Bench想做的事儿,就是全面评估AI科研所需的技能。本次研究一共提出了7项:

这些任务被设计在≤8小时内,以便人类专家可以使用合理的计算资源完成,从而实现人类与AI的直接比较。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

通常来说,RE-Bench的运行机制如下:

首先,7项任务都是一个独立的评估环境,各自都有一个清晰的目标,比如优化一个GPU内核或者调整一个机器学习模型的超参数。

为了确保任务的可比性,每个环境都提供了一个参考解决方案,这个解决方案是有效的,但效率较低,为Agent和人类专家提供了一个基准点。

AI和人类专家都可以访问这些环境,并且都有权限使用所需的计算资源,如GPU。

然后,AI通过自然语言处理和编程能力来执行任务,而人类专家则通过编码和实验来完成任务。

执行结束后,每个环境都有一个评分函数,用于衡量Agent或人类专家提交的解决方案的效果。

当然,评分函数会根据解决方案的性能给出一个数值得分,这个得分随后会被归一化,以便于在不同环境之间进行比较。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

需要注意,过程中还涉及时间预算分配(timebudget)。实际情况是,人类专家通常被分配8小时来完成任务,而AI则根据实验设计在不同的时间限制下进行评估。

举个例子,对AI来说,8小时的预算可以用于一次8小时的尝试,也可以分成16次、每次30分钟的尝试。

最后,由于在任务执行过程中,研究会收集AI和人类专家的解决方案日志,以及它们的得分记录。因此最终将根据这些记录来评估不同参与者的进步和表现。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

实验结果显示,在2小时内,基于Claude3.5Sonnet和o1-preview构建的智能体表现远超人类。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

令人印象深刻的是,尽管大多数AI只能轻微改进参考解决方案,但一个o1-preview智能体在优化Triton内核运行时间的任务中超越了人类专家的最佳解决方案。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

与此同时,评估过程中甚至发现了AI存在“作弊”行为。例如,o1-preview智能体在应该减少训练脚本运行时间的任务中,编写了只是复制最终输出的代码。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

来自非营利研究机构METR

以上这项新的基准出自METR,作为一家非营利研究机构,他们主要通过实证测试评估可能对社会造成灾难性危害的AI系统。

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

一旦7项任务公开,如何防止基准测试数据污染问题?

限定120分钟科研挑战,o1和Claude表现超越人类AI更适合大量并行短时间任务,长期科研还得靠人类来自非营利研究机构METR

版权所有,未经授权不得以任何形式转载及使用,违者必究。

今日热搜