近日,GPT5.0正式亮相,不过并未公布模型参数。OpenAI的闭源特性,引发了关于推动AI技术公平性的探讨。在人工智能领域,开源被视作实现反垄断和民主化的重要途径,尽管面临争议与挑战。
当下的人工智能行业正处于抉择之中,彻底开源虽能激发创新,但存在不确定风险;少数公司掌控技术则保障了安全,却使多数开发者处于生态链末端。这里的开源,已超越传统软件开发概念,涵盖了多重开放形式与机制。
作者认为,唯有真正的开源开放,软件代码才有持续创新的动力。在技术范式可能转变的背景下,开源的战略价值或许远超预期。它在促进科学共享、提升透明度、防止技术垄断等方面有积极意义,但也要正视技术滥用和大型科技公司控制的不确定性。
从历史看,开源软件是数字技术的基础,其理念已成为数字从业者的共识。然而,近年来人工智能开源却饱受质疑。例如OpenAI,2023年发布GPT -4时从开源转向闭源,2025年4月又宣布重新拥抱开源,这反映了技术演化中生产力和生产关系的动态调整。
开源人工智能理念存在争议。一方面,其内涵比开源软件复杂,厂商多开放工具和权重模型,限制资源开放,难以支持技术复现和成员能力学习;另一方面,开源许可协议有诸多限制条款,与开源软件的“四大自由”精神不符,因此被质疑是“公开洗地”而非“实质开放”。
关于开源人工智能的价值,有人认为其性能不如闭源人工智能,前沿模型领域需要大量资源投入,这也是GPT – 4闭源的原因。但2025年初DeepSeekV3和R1开源模型证明了有限资源下也能实现高性能。不过,开源人工智能与开源软件促进发展的机制仍有差异,其高门槛限制了创新范围和效果。尽管如此,开源促进人工智能发展的趋势日益明显,且已带来生产力赋能的实际效果。
开源人工智能的风险也存在争议。图灵奖得主观点不一,这种差异还体现在人工智能安全治理政策实践中。美国不同政府对开源人工智能的监管态度不同,随着开源人工智能的发展,安全风险范畴也在拓展。
在“地缘政治”方面,开源软件曾打破技术封锁、促进国际合作,但开源人工智能情况复杂。它有助于打破政府对技术流动的管制,但也可能引发更复杂的大国竞争格局。
总之,围绕开源人工智能的争议,涉及技术演化、社会影响和未来走向等关键问题,反映了公共利益与私人利益、国家与市场、国际权力结构等方面的矛盾,其未来演化值得关注。