OpenAI于美国当地时间5月15日凌晨宣布 ,正式向chatgpt用户推出GPT-4.1、GPT-4.1 mini以及GPT-4.1nano三款人工智能模型。GPT-4.1模型能为软件工程师在编写或调试代码时提供更高效支持,其编程能力和指令执行表现优于GPT-4o,运行速度也更快。
在多个关键评测中,GPT-4.1展现强劲性能。在SWE-benchVerified软件工程基准测试中,得分55%,远超GPT-4o的33%和GPT-4.5的38%;在Scale的MultiChallenge指令执行测试中,得分38%,较GPT-4o的28%提升10%。此外,该模型冗余输出减少50%,获早期企业用户高度评价。
GPT-4.1 mini将作为新默认模型,取代GPT-4o mini,适用于所有ChatGPT用户,包括免费用户。而GPT-4.1nano体积小巧,具备出色性能,支持100万token的上下文窗口,在多项基准测试中表现优异,适合分类、自动补全等对响应速度和效率要求高的任务。
这三款模型均可通过ChatGPT界面左上角的“更多模型”下拉菜单选择,用户可在GPT-4.1、GPT-4.1mini与推理模型间自由切换,增强使用灵活性。目前,OpenAI正将GPT-4.1模型向ChatGPTPlus、Pro和Team订阅用户推出,企业版与教育版用户访问权限将在未来几周陆续开放,GPT-4.1mini则提供给所有免费和付费用户使用。同时,GPT-4.0 mini将从ChatGPT中全面下架。
在APi方面,GPT-4.1可处理最多100万个token的输入,适用于多文档审阅、财务分析等企业场景。尽管在大规模输入场景中表现可能下降,但在数十万token级别内仍性能稳健。
与前代模型相比,2025年2月发布的GPT-4.5着重提升无监督学习能力、知识深度与降低幻觉率,但多数用户认为其性能提升“温和”,且在数学和编程方面不及o系列模型,API使用成本高昂。而GPT-4.1聚焦速度与指令执行实用性,在代码辅助和用户指令遵循性方面表现更好。
在定价上,GPT-4.1通过OpenAI API提供,每百万输入token收费2美元,缓存输入为0.5美元,输出为8美元;轻量版GPT-4.1mini费用更低。相较之下,谷歌的Flash-Lite和Flash模型价格更具竞争力。
GPT-4.1最初仅面向第三方开发者通过OpenAIAPI提供服务,在用户强烈要求下,OpenAI决定将其引入ChatGPT平台。此前AI研究界曾批评OpenAI未附带安全报告就发布GPT-4.1,该公司解释称其并非“前沿模型”,不需要遵循相同安全报告要求。发布新模型当天,OpenAI承诺更频繁公开内部AI模型安全评估结果,相关数据已纳入新上线的“安全评估中心”。此次GPT-4.1引入ChatGPT,正值外界对ai编程工具关注度上升,据传OpenAI即将宣布以30亿美元收购市场热门编程工具Windsurf。