李飞飞提出AI政策制定三大原则,强调科学务实赋能

AI快讯1周前发布 niko
6 0
AiPPT - 一键生成ppt

2月9日消息,斯坦福以人为本人工智能研究院(HAI)院长李飞飞,同时作为空间智能初创企业WorldLabs的联合创始人兼首席执行官,于英国《金融时报》发表最新文章。她在文中表明,当前人工智能发展态势迅猛,然而全球范围内明确的治理框架却处于缺失状态,这已然成为亟待解决的重大挑战。基于此,李飞飞提出了三项AI政策制定的基本原则。

李飞飞着重强调,AI治理应当以科学为基石,而非受科幻想象的左右。当下,一些类似科幻小说情节、带有意识形态倾向的概念,正逐渐渗透至AI治理框架的制定进程中,必须以科学观念和务实态度全力规避。

在文章里,李飞飞表达了对开源AI的坚定支持。她觉得,开放AI模型以及计算工具的访问权限意义重大,能够有力推动技术向前发展。反之,限制访问将会形成阻碍,延缓创新的脚步。

李飞飞认为,AI正以超乎以往的速度发展。曾经耗时数日才能完成的计算任务,如今仅需几分钟便可解决。尽管训练成本大幅攀升,但随着开发者掌握以更少资源达成更多成果的方法,这些成本有望很快降低。她重申,AI的未来已然来临。

对于该领域的从业者而言,这或许并不意外,毕竟计算机科学家始终不懈努力,企业多年来也持续创新。但令人忧虑的是,AI领域似乎缺少一套全面的治理框架。在AI快速发展的同时,必须确保其能造福全人类。

身为技术专家和教育工作者,李飞飞坚信,全球AI生态系统中的每一个人都肩负着推动技术进步、确保以人为本的责任。这是一项艰巨任务,值得制定一套结构化的指导方针。在筹备下周的巴黎AI行动峰会之际,她为未来的AI政策制定提出三大原则。

其一,依靠科学,而非科幻。从原则上讲,科学工作建立在经验数据和严谨研究的基础之上,这一方法同样适用于AI治理。尽管一些未来主义场景,无论是乌托邦式还是世界末日式,常常引发我们的想象,但有效的政策制定需要对当下现实有清晰认知。我们在图像识别和自然语言处理等领域取得显著进展,聊天机器人和智能助手正以令人振奋的方式改变工作模式,它们运用的是高级数据学习和模式生成技术,并非具备意图、自由意志或意识的智能形态。明确这一点十分关键,能使我们避免被不切实际的场景干扰,专注应对关键挑战。鉴于AI的复杂性,即便聚焦现实也并非易事。为缩小科学进步与现实应用的差距,我们需要能提供人工智能能力准确且最新信息的工具,像美国国家标准与技术研究院等权威机构,可助力我们理解人工智能对现实世界的影响,为制定有效政策提供依据。

其二,务实而非意识形态化。尽管AI领域发展迅速,但仍处于起步阶段,其最大潜力尚未充分展现。因此,关于AI构建的政策制定必须秉持务实态度,既要最大程度降低意外后果,又要激励创新。以AI用于疾病诊断为例,它有望快速推广高质量医疗服务,但倘若缺乏适当引导,也可能加剧当前医疗系统存在的偏见问题。开发AI并非易事,即便怀着美好初衷开发的模型,日后也可能被滥用。所以,最佳的治理政策应通过策略手段规避风险,同时奖励负责任开发和部署AI技术的行为。政策制定者需制定实用的责任政策,阻止故意滥用,避免不公正地惩罚善意努力。

其三,赋能AI生态系统。AI技术能够激发学生热情,助力照顾老龄化人口,提供清洁能源创新方案,而优秀的创新往往源于合作。所以,政策制定者对整个AI生态系统进行赋能尤为重要,这一生态系统涵盖开源社区和学术界。开放AI模型和计算工具的访问权限对推动技术进步至关重要,限制访问会形成阻碍,减缓创新,对资源相对匮乏的学术机构和研究人员影响更大。这种限制的后果不仅局限于学术界,若当下的计算机科学学生无法使用先进模型开展研究,未来进入私营部门或创业时,将难以理解复杂系统,形成严重的知识空白。

李飞飞表示,AI革命已然来临,她对此充满期待。我们有机会在人工智能驱动的世界里,大幅提升人类生活质量。但要实现这一目标,需要全新的治理架构:以实际数据和验证过的研究结果为基础,强调协作性,深深扎根于以人为本的价值观之中。

© 版权声明
智谱清言 - 国产最强AI模型