LLaMA 4重新上架后排名骤降 Llama4在大模型竞技场被指作弊后,重新推出非特供版模型。然而,其排名从第2急剧降至第32,甚至落后于英伟达基于Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1。
模型版本变更首发时提交的“实验版”Llama-4-Maverick-03-26-Experimental,实为“针对人类偏好优化”的模型。修正后为HuggingFace开源版同款Llama-4-Maverick-17B-128E-Instruct,是有17B激活参数、128个MoE专家的指令微调模型。
网友评论与信任危机实验版模型“针对人类偏好优化”的方式未公开,网友感慨“即使对AI来说,智力和魅力也不一定相关”。还有人认为Meta应因试图作弊受批评,社区对其信任度降低。
Llama 4的性能优势 有开发者分享,Llama 4Maverick在内存充足但内存带宽和计算能力较低的系统(如x86服务器用CPU推理,或在M3 Ultra MacStUdio上推理)时速度比Mistral Small 3.1更快,比Mistral Large 2411或CommandA更智能。对于288GB内存双路至强服务器,Llama 4 Maverick能以不错速度运行。
Llama 4与DeepSeek v3对比评测 Composio公司详细对比了Llama 4与DeepSeek v3:在代码能力上,DeepSeekv3 0324远远优于Llama 4 Maverick;常识推理方面,DeepSeek v3 0324也更胜一筹;大型RAG任务中,Llama4速度更快;写作方面,Llama 4风格更细致,DeepSeek v3更随意。
© 版权声明
文章版权归作者所有,未经允许请勿转载。