ChatGPT 因“诽谤性”捏造儿童谋杀故事遭隐私投诉

OpenAI 最近面临了一起来自挪威的隐私投诉,主要针对其人工智能聊天机器人 ChatGPT 经常产生虚假信息的问题。这起案件由隐私权倡导组织 Noyb 支持,投诉者是一位名为阿尔夫・哈尔马尔・霍尔门的个人。他发现 ChatGPT 竟然错误地声称他因谋杀两个孩子和试图杀死第三个孩子而被定罪,令他感到震惊和愤怒。

隐私投诉的背景

过去有关 ChatGPT 的隐私投诉主要涉及一些基本的个人数据错误,例如出生日期或传记信息不准确。一个关键问题是,OpenAI 没有提供一个有效的途径让个人能够纠正 AI 生成的错误信息。通常情况下,OpenAI 会阻止生成此类错误信息的回应。然而,根据欧盟《通用数据保护条例》(GDPR),欧洲人拥有一系列的数据访问权,包括更正个人数据的权利。

GDPR 的适用性与责任

Noyb 指出,GDPR 规定个人数据必须准确,如果信息不准确,用户有权要求更正。Noyb 的律师乔基姆・索德贝里表示,OpenAI 只是简单地在底部添加了一个免责声明,声称 “ChatGPT 可能会犯错误”,并不能免责。根据 GDPR 的规定,AI 开发者有责任确保其生成的信息不传播严重的虚假内容。

潜在的法律后果

违反 GDPR 的行为可能导致高达全球年收入 4% 的罚款。2023 年春季,意大利的数据保护监管机构曾暂时封锁 ChatGPT 的访问,这一措施促使 OpenAI 对其用户信息披露进行了调整。尽管如此,近年来欧洲的隐私监管机构对生成性人工智能采取了更为谨慎的态度,以寻找适合的监管方案。

隐私投诉的目的

Noyb 的新投诉意在引起监管机构对 AI 生成虚假信息潜在危险的关注。他们分享了一张与 ChatGPT 互动的截图,显示该 AI 在回应关于霍尔门的问题时,产生了一个完全虚假的、令人不安的历史。这一事件并非孤立,Noyb 还指出了其他用户遭受类似虚假信息损害的案例。

关于模型更新的担忧

尽管 OpenAI 在其模型更新后停止了针对霍尔门的虚假指控,但 Noyb 和霍尔门本人仍担心 AI 模型内部可能保留了错误的信息。Noyb 已向挪威数据保护局提交了投诉,期待监管机构能够对此进行调查。

划重点:

  • 🌐 Noyb 支持一名挪威个人对 ChatGPT 提出隐私投诉,指责其生成虚假信息。
  • ⚖️ 根据 GDPR,个人数据必须准确,OpenAI 未能满足这一要求。
  • 🔍 Noyb 希望通过此投诉引起监管机构对 AI 虚假信息问题的重视。

ChatGPT 因“诽谤性”捏造儿童谋杀故事遭隐私投诉

YiAI团队

YiAI团队

AI大模型技术专家团队

YiAI团队是一支专注于AI大模型应用的技术团队,由来自国内外知名科技公司的AI专家组成。 我们致力于为企业和开发者提供高质量、低成本的AI大模型API服务,涵盖文本生成、对话交互、 内容理解、知识问答等多个领域。团队拥有丰富的大规模语言模型开发和应用经验,深入理解 企业在AI落地过程中的实际需求和技术痛点。