您好,欢迎访问一九零五行业门户网

OpenAI霸榜前二!大模型代码生成排行榜出炉,70亿LLaMA拉跨,被2.5亿Codex吊打

最近,matthias plappert的一篇推文点燃了llms圈的广泛讨论。
plappert是一位知名的计算机科学家,他在humaneval上发布了自己对ai圈主流的llm进行的基准测试结果。
他的测试偏向代码生成方面。
结果令人大为不震撼,又大为震撼。
意料之内的是,gpt-4毫无疑问霸榜,摘得第一。
意料之外的是,openai的text-davinci-003异军突起,拿了个第二。
plappert表示,text-davinci-003堪称一个「宝藏」模型。
而耳熟能详的llama在代码生成方面却并不出色。
openai霸榜plappert表示,gpt-4的性能表现甚至比文献中的数据还要好。
论文中gpt-4的一轮测试数据是67%的通过率,而plappert的测试则达到了73%。
在分析成因时,他表示,数据上存在差异有不少可能性。其中之一是他给到gpt-4的prompt要比论文作者测试的时候好上那么一些。
另一个原因是,他猜测论文在测试gpt-4的时候模型的温度(temperature)不是0。
「温度」是一个用于调整模型生成文本时创造性和多样性的参数。「温度」是一个大于0的数值,通常在 0 到 1 之间。它影响模型生成文本时采样预测词汇的概率分布。
当模型的「温度」较高时(如 0.8、1 或更高),模型会更倾向于从较多样且不同的词汇中选择,这使得生成的文本风险性更高、创意性更强,但也可能产生更多的错误和不连贯之处。
而当「温度」较低时(如 0.2、0.3 等),模型主要会从具有较高概率的词汇中选择,从而产生更平稳、更连贯的文本。
但此时,生成的文本可能会显得过于保守和重复。
因此在实际应用中,需要根据具体需求来权衡选择合适的「温度」值。
接下来,在点评text-davinci-003时,plappert表示这也是openai旗下一个很能打的模型。
虽然不比gpt-4,但是一轮测试有62%的通过率还是能稳稳拿下第二名的宝座。
plappert强调,text-davinci-003最好的一点是,用户不需要使用chatgpt的api。这意味着给prompt的时候能简单一点。
此外,plappert也给予了anthropic ai的claude-instant模型比较高的评价。
他认为这个模型的性能不错,比gpt-3.5能打。gpt-3.5的通过率是46%,而claude-instant是54%。
当然,anthropic ai的另一个llm——claude,没有claude-instant能打,通过率只有51%。
plappert表示,测试两个模型用的prompt都一样,不行就是不行。
除了这些耳熟能详的模型,plappert也测试了不少开源的小模型。
plappert表示,自己能在本地运行这些模型,这点还是不错的。
不过从规模上看,这些模型显然没有openai和anthropic ai的模型大,所以硬拿它们对比有点以大欺小了。
llama代码生成?拉胯当然,plappert对llama的测试结果并不满意。
从测试结果来看,llama在生成代码方面表现很差劲。可能是因为他们在从github收集数据时采用了欠采样的方法(under-sampling)。
就算和codex 2.5b相比,llama的性能也不是个儿。(通过率10% vs. 22%)
最后,他测试了replit的3b大小的模型。
他表示,表现还不错,但和推特上宣传的数据相比差点意思(通过率16% vs. 22%)
plappert认为,这可能是因为他在测试这个模型时所用的量化方式让通过率掉了几个百分比。
在测评的最后,plappert提到了一个很有意思的点。
某位用户在推特上发现,当使用azure平台的completion api(补全api)(而不是chat api)时,gpt-3.5-turbo的性能表现更好。
plappert认为这种现象具有一定合理性,因为通过chat api输入prompt可能会相当复杂。
以上就是openai霸榜前二!大模型代码生成排行榜出炉,70亿llama拉跨,被2.5亿codex吊打的详细内容。
其它类似信息

推荐信息