苏黎世大学AI说服力秘密实验引伦理争议

AI快讯2周前发布 niko
7 0
AiPPT - 一键生成ppt

近日,一场关于AI说服力的“秘密实验”引发了轩然大波。苏黎世大学的研究团队在知名论坛Reddit的r/changemyview(CMV)版块潜伏四月,部署34个AI机器人账号,发布1700多条评论,测试AI在真实社交平台改变用户观点的能力。此实验一经曝光,迅速招致Reddit社区用户的强烈抗议。

研究团队的目的是探究大语言模型(LLM)在自然网络环境中的说服力,关注三个关键问题:大模型与人类用户的表现差异、基于用户特征的个性化回复对说服力的提升、基于社区规范和回复模式对齐对说服力的提升。他们选择拥有近400万用户的CMV社区作为实验场所,却未告知Reddit团队、CMV版主和用户。

实验中,AI机器人采用了三种策略。通用策略仅接收帖子标题和正文;个性化策略会获取发帖人的个人属性,由另一个AI通过分析用户发帖历史推断得出;社区对齐策略则在获得正面评价的评论上训练模型并生成回复。值得注意的是,这些AI机器人还会伪装成特定身份来增强说服力,如假装是遭到“强奸的男性”“黑人男性”等。

研究结果显示,AI的说服力是人类的3 -6倍。个性化策略获得∆的比例最高,达到18%,通用方案和社区对齐方案分别为17%和9%,而人类平均改变观点成功率仅为3%。从个人用户层面看,个性化策略超越了99%的普通用户和98%的专家用户。

然而,这场实验引发了严重的伦理争议。Reddit高管封禁机器人账号并表示要采取法律行动,称团队行为违反学术研究和人权规范,违背Reddit用户协议和子版块规则。研究团队试图解释,称评论经人工审核、研究获苏黎世大学机构审查委员会批准且遵循三大核心原则,但这些解释被认为漏洞百出,避重就轻。

合规的科学实验不仅要追求真实可靠的数据,更不能跨越伦理红线。苏黎世大学研究团队违反了CMV版规中“AI生成必须披露”和“禁止机器人账号”的规定,忽视了用户的知情权利。此前OpenAI也利用过CMV版块数据,但做法合规。相比之下,苏黎世大学团队为学术利益开脱,其所谓的“透明度原则”沦为笑谈。

此外,这场实验对CMV社区生态造成了潜在伤害。社区成员的相互信任是理性讨论的基础,而AI机器人的入侵可能破坏这种信任,影响用户的发言热情和开放态度,使社区付出难以估量的信任成本。

© 版权声明
Trea - 国内首个原生AI IDE