AI时代,机器人三定律还能否指导人与AI的关系?

AI快讯3天前发布 niko
5 0

在人工智能发展历程中,艾萨克·阿西莫夫于1942年在短篇小说《转圈圈》里首次提出「机器人三定律」。这一定律随后凭借其短篇小说集《我,机器人》广泛传播。其内容包括:机器人不得伤害人类,不得因不作为使人类受伤害;必须服从人类命令,除非与第一法则冲突;必须保护自身存在,只要不与第一或第二定律冲突。

机器人三定律影响深远,不仅构成阿西莫夫机器人科幻小说的组织原则,还渗透到众多机器人科幻小说及相关流行文化中。例如《萨姆的密码》中的法则、《2001太空漫游》中机器人展示定律,《我,机器人》更是深入讨论。甚至在此基础上,人们发展出专门研究人与机器人关系的学科——机器人伦理学。

然而,机器人三定律本质是为故事服务的创作工具,并非全面道德框架。在阿西莫夫故事里,三定律均以失败告终,旨在制造困境探讨人与AI灰色边界。在现实世界,如巡航导弹、军用无人机就违反相关定律。从语言学角度,英语表述的定律存在歧义,难以编码成精确指令。

人类对技术一直存在恐惧。像《弗兰肯斯坦》反映出人类对创造生物的恐惧,类似还有犹太神话里魔像的传说。这种对「创造物」的恐惧可理解为对技术的恐惧,近现代人类对技术的恐惧也屡见不鲜,如工业革命时期英国的卢德运动。从恐惧视角看,机器人三定律对机器人严防死守,将其置于服从地位,当把机器人视为有感知生物时,矛盾冲突可能发生。

现实世界中,目前尚无通行法律。欧美国家积极推动AI立法,欧盟2024年AI法案严格监管,美国州一级有相关法案,加拿大也有提议。这些法案限制主体是人类,却遭到大型科技公司反对。非西方国家态度不同,印度积极吸引投资,目前无监管。科技巨头对全球政府政策影响显著,各国需就AI基本规则达成共识。

对于如何完善阿西莫夫的机器人三定律,ChatGPT给出建议。包括增强对人类自主性的尊重,明确多层次责任分配,控制AI的自我意识和自我约束,强化道德与伦理框架,确保AI的可调节性与透明度,限制AI的目标设定。但这些建议同样难以以代码形式植入机器。

© 版权声明

相关文章

暂无评论

暂无评论...