QbitAI量子位

文章数:10350 被阅读:146647018

账号入驻

GPT-4o mini排名雪崩,大模型竞技场规则更新,奥特曼刷分小技巧无效了

最新更新时间:2024-08-31
    阅读数:
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

大模型竞技场规则更新, GPT-4o mini排名立刻雪崩,跌出前10

新榜单对AI回答的 长度和风格等特征做了降权处理 ,确保分数反映模型真正解决问题的能力。

想用漂亮的格式、增加小标题数量等技巧讨好用户、刷榜,现在统统没用了。

在新规则下,奥特曼的 GPT-4o mini 、马斯克的 Grok-2系列 排名显著下降,谷歌 Gemini-1.5-flash 小模型 也有所回落。

Claude系列 Llama-3.1-405b 大模型分数则纷纷上涨。

只计算困难任务(Hard Prompt)的情况下,大模型在风格控制榜单中的优势更加明显。

此前GPT-4o mini小模型一度登顶,与GPT-4o满血版并列第一,与网友的体感明显不符。

Lmsys大模型竞技场这个一度被Karpathy推荐的评价标准,口碑也跌落到“只能反映用户喜好而不是模型能力了”。

Lmsys组织痛定思痛,先是公开了GPT-4o mini参与的1000场battle数据,从而分析出模型拒绝回答率、生成内容长度、和格式排版是影响投票结果的几个因素。

而且奥特曼还在GPT-4o mini发布之前,暗示了正是按照人类偏好做优化的。

现在,Lmsys进一步推出了控制这些因素的新算法,而且还只是规划中的第一步。

如何控制风格的影响?

假设有 模型A 擅长生成代码、事实和无偏见的答案等,但它的输出非常简洁。

模型B 在实质内容(例如正确性)上不是很好,但它输出的内容长而详细、格式排版华丽。

那么哪个更好?

答案不是唯一的,Lmsys尝试用数学方法找出一个模型的得分有多少是内容或风格贡献的。

此外,最近也已经有研究表明, 人类对排版漂亮和更详细的AI回答可能存在偏好性。

通过在 Bradley-Terry回归 中添加样式特征,如响应长度、markdown小标题的数量、列表和加粗文本数量作为自变量。

这是统计学中的一种常用技术,最近被AlpacaEval LC等用于大模型评估。

在回归中包含任何混杂变量(例如回答长度),可以将分数的增加归因于混杂变量,而不是模型能力本身。

相关代码已在Google Colab上公开。

此外团队还对“只控制长度”和“只控制格式”做了消融实验。GPT-4o mini、谷歌Gemini系列分数受格式影响更大。

不过这种做法也存在局限性,比如可能存在未观察到的混杂因素,例如长度和回答质量之间的正相关,这些因素没有被考虑在内(例如思维链提示)。

有不少网友表示,调整后的困难任务榜单与自己的主观印象更吻合了。

也有人觉得,正是榜单和冲榜的大模型公司这种来回博弈,才能让整个领域一起进步。

你还在参考大模型竞技场结果选择模型吗?或者有什么更好的评估方法,欢迎在评论区分享。

参考链接:
[1]
https://x.com/lmsysorg/status/1829216988021043645
[2] https://lmsys.org/blog/2024-08-28-style-control/
[3] https://arxiv.org/abs/2402.10669

量子位年度AI主题策划 正在征集中!

欢迎投稿专题 一千零一个AI应 365行AI落地方案

或与我们分享你在 寻找的AI产品 ,或发现的 AI新动向


点这里 ???? 关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~


最新有关QbitAI量子位的文章

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved