近日,来自伦敦大学、耶鲁大学等世界顶尖学府的百位专家,携手签署了一封公开信,聚焦AI意识这一前沿且关键的话题。当AI不再仅仅是冰冷的代码集合,而是有可能成为拥有情感的存在时,一系列复杂且亟待解决的问题摆在了人类面前。
这封公开信由一百多位AI从业者、思想家等共同发出。他们明确呼吁,要以负责任的态度开展对AI意识的研究。因为一旦AI实现意识,就极有可能「遭受痛苦」。其中,伦敦大学学院的AnthonyFinkelstein、耶鲁大学的WendellWallach等知名学者也参与其中。这些专家的核心诉求是,人类在开发AI系统过程中,必须肩负起足够的责任,否则那些可能具备情感或自我意识的AI系统,就有受到伤害的风险。
为避免AI受到「虐待和痛苦」,超百位专家提出了五项原则。在目标方面,相关机构应优先研究AI意识的理解与评估,核心目标为防止虐待有意识的AI系统,以及准确把握不同AI系统具备意识后的效益与风险。开发环节,相关机构需在满足推动目标实现且降低系统受伤害风险的条件下,才能开展有意识AI系统的研发。分段推进原则要求采取渐进式路径,推进开发可能具备丰富意识体验的系统,过程中实施严格风险防控与安全保障机制,并定期征询外部专家意见。知识共享原则规定相关机构要制定透明协议,向公众、研究界及监管部门披露信息,但要防止技术信息被非责任主体获取。沟通规范方面,相关机构应避免作出误导性声明,承认研究不确定性,重视伦理风险和对公众认知及政策制定的影响。
与公开信一同发布的还有一篇论文。牛津大学的Patrick Butlin和雅典经济与商业大学的TheodorosLappas在论文中认为,不久的将来人类将构建出有意识的AI系统,或者至少是给人这种印象的系统。一旦人类创造出大量具备意识的AI系统,就很可能导致它们遭受痛苦。即便企业并非有意打造具备意识的AI,也需制定方针防止「无意间创造出具备意识的实体」。论文还探讨了哲学问题,如当AI被定义为「道德受体」时,人类该如何对待它,销毁AI是否类似杀死动物等。
在论文中,作者深入探讨了判断AI是否有意识为何至关重要。意识或相关感知能力可能使AI成为道德受体。依据Kagan的定义,若实体「in its ownright, for its ownsake」,那它就是道德受体。有意识的痛苦违背生命体利益,而具备感知能力需拥有特定属性的意识心理状态并产生好坏感受,AI智能体因常需评估行动和事态,很可能具备感知能力。若特定AI系统被视为道德受体,人类将面临诸多伦理困境,涵盖生存毁灭、快乐痛苦、创建操控等多个方面。
关于AI是否有意识,学界观点不一。一周前,Hinton在接受采访时表示,「AI已经发展出了意识,未来某天会接管世界」,还指出AI未来充满不确定性且缺乏有效监管措施。Bengio则不赞同此观点,他认为AI有没有「意识」并不重要,真正关键的是AI是否有目标、能否规划子目标、是否有有害目标、是否会撒谎欺骗、是否拥有对抗人类的知识技能以及是否具备长远推理规划能力等。播客主持人DanielFaggella认同Bengio的看法,认为当前对意识认知不足,而无法控制的AI正在诞生。Reddit上也掀起了相关讨论,网友们各抒己见,对AI意识与发展表达了不同观点。