23年前,史蒂文·斯皮尔伯格的《少数派报告》“神预言”了人工智能时代的伦理困境。影片中犯罪预防系统基于“先知”预知未来,却出现致命漏洞,引发对系统公正性的思考。如今,这样的思考越发尖锐。
在美国,AI算法广泛用于决策,预测性警务便是其中之一,AI分析犯罪热点、评估嫌疑人再犯风险。然而,AI并非总是客观公平。美国法院借助“再犯风险评分系统”量刑,对黑人被告误判率是白人的2倍;AI招聘系统存在歧视;谷歌图像识别系统出现种族识别偏差,这些都源于AI的偏见。
AI偏见问题由来已久且愈发严重。2016年英国某智能系统测试暴露算法偏见,2024年研究显示众多行业AI系统存在性别、种族偏见。AI偏见潜藏在各个角落,破坏社会公平性,亚马逊AI招聘工具、国外保险公司和银行的AI评估都存在问题。
追根溯源,AI偏见产生的原因包括数据“原罪”和人类自身。数据局限使AI将局部“现实”固化为普世标准,而人类在数据采集和算法设计环节也可能注入偏见基因。AI技术伦理问题正制造算法茧房,形成人类与AI相互强化偏见的恶性循环。
面对AI偏见能否消除的问题,行业内外采取多种手段应对,如欧盟要求植入伦理审查模块,OpenAI进行数据清洗等。但数据清洗难以根治问题,算法黑箱的不可解读性是最大技术瓶颈。人工智能如人类社会的镜子,其偏见是价值观的数字化投射。
AI偏见的责任判定复杂。2020年的推特论战引发对责任归属的思考,AI系统责任需从使用和控制双重维度判定。普通公民也能有所作为,分享打破刻板印象的数据样本,保留深度思考能力,将对历史的反思编入代码,让多元声音参与设计,才能让AI更公平。
© 版权声明
文章版权归作者所有,未经允许请勿转载。