OLMo232B开源模型:320亿参数超越GPT,引领AI开放新里程

AI快讯1个月前发布 niko
7 0
AiPPT - 一键生成ppt

OLMo232B模型惊艳亮相。艾伦人工智能研究所(AI2)新近推出的OLMo232B大型语言模型,作为OLMo2系列的最新成果,以“完全开放”之态,向专有模型发起挑战。

开源属性大放异彩 。AI2毫无保留地公开OLMo232B的所有数据、代码、权重及详细训练过程,与闭源模型形成鲜明反差,旨在推动全球研究创新。

320亿参数实力超群 。OLMo232B拥有320亿参数,规模显著提升。在多项学术基准测试中,超越GPT-3.5Turbo和GPT-4omini,为开源AI社区注入强大动力。

精细训练铸就实力。其训练分预训练和中期训练两阶段。预训练阶段“摄取”约3.9万亿tokens的庞大数据集,中期训练聚焦Dolmino数据集,提升特定领域理解能力。

训练效率令人惊叹 。OLMo232B在达到相当性能水平时,仅用约三分之一计算资源,凸显AI2在资源高效ai开发上的成果。

开放里程碑意义重大 。OLMo232B的发布是开放和可访问AI发展的重要里程碑,鼓励全球人员参与,推动AI领域进步。

© 版权声明
Trea - 国内首个原生AI IDE