人工智能分析个人信息的法律注意要点

AI快讯5小时前发布 niko
0 0
AiPPT - 一键生成ppt

人工智能分析个人信息:法律边界与风险防范

英国《金融时报》记者JemimaKelly曾分享其独特经历,约会对象借助chatgpt对她发表的上千篇文章展开深度剖析,生成一份长达八页的心理档案。起初她未在意,可当想到这一行为可能被用于不良目的,便心生恐惧。这一事件引出一个关键话题:运用人工智能进行个人分析,在法律层面需注意哪些要点?

公开信息分析的合法性

在我国,依据《个人信息保护法》,若使用人工智能分析的是公开信息,通常无需被分析人同意。该法规定,在合理范围内处理个人自行公开或已合法公开的个人信息,无需取得个人同意。最高院网络侵害人身权司法解释也指出,网络用户或服务提供者公开特定个人信息造成他人损害,在特定情形下无需担责,其中就包括自然人自行公开或通过合法渠道获取的信息。

未公开信息上传风险

未公开的个人信息涉及隐私,将其上传至人工智能公司存在隐私泄露隐患。尽管人工智能企业的隐私政策表明不会泄露用户信息,但内部人员可能接触,或因技术故障、合同要求向第三方提供,从而增加泄露风险。所以,无论是自身还是他人的未公开信息,都不应轻易上传。

审慎对待分析结果公开

在一些现实场景中,如网上约会,利用人工智能分析个人信息看似合理。然而,人工智能技术尚不完善,分析结果可能不准确、存在歧视等问题。若将这些结果公开,可能引发名誉侵权风险。我国《民法典》明确保护民事主体的名誉权,歧视性或无中生有的分析结果可能涉嫌侮辱或诽谤。若因发表此类内容被起诉,行为人需证明尽到合理核实义务才能免责。

网上个人信息留存需谨慎

随着人工智能技术的发展,人们被分析的可能性增大。凯莉使用ChatGPT和谷歌的Gemini进行自我分析,结果各异。普通人若不想被过度了解,应尽量减少在网络公开平台留下个人特征信息,以免被不法分子利用,定制诈骗方案等不良后果。

© 版权声明
Trea - 国内首个原生AI IDE