[ad_1]
OpenAI 的 ChatGPT 自推出以来就变得非常受欢迎,使其成为有史以来增长最快的应用程序。 由于用户数量如此之多,人们对如何收集、利用和保护用户数据提出了疑问,现在联邦贸易委员会 (FTC) 希望得到答案。
在《华盛顿邮报》获得的一份长达 20 页的 FTC 文件中,该政府机构要求 OpenAI 提供有关其大型语言模型的几乎所有方面的文档,特别关注 OpenAI 的用户数据处理和 ChatGPT 的虚假陈述输出。
还: 使用您自己的数据训练人工智能模型以降低风险
根据该文件,FTC 正在调查 OpenAI 是否存在“不公平或欺骗性的隐私或数据安全做法”,或者是否存在可能对消费者造成伤害的“欺骗性做法”。
FTC 正在寻求有关 OpenAI 如何获取数据、如何使用这些数据来训练模型以及评估风险和安全性的程序的详细解释。
此外,FTC 还要求 OpenAI 披露其已采取哪些措施来降低 LLM 生成有关真实个人的“虚假、误导或贬低”陈述的风险。
这些调查是在 ChatGPT 发生的几起事件之后进行的,这些事件引起了人们的关注,甚至引发了针对 OpenAI 的诉讼。
例如,3 月 20 日发生的数据泄露事件暴露了 ChatGPT 用户的对话和订阅者的付款信息。 此次违规事件凸显了使用人工智能工具的潜在风险,甚至导致意大利整体禁止 ChatGPT,尽管禁令已被解除。
还: 大多数员工希望利用生成式人工智能来提升自己的职业生涯,但不知道如何实现
其他实例包括针对 OpenAI 提起的两起集体诉讼。 其中一项针对 OpenAI 的诉讼声称,该人工智能公司一直在使用从客户那里“窃取的数据”来训练和开发其产品。
另一项诉讼涉及 ChatGPT 的幻觉及其对人做出虚假陈述的能力。 在 OpenAI 的第一起诽谤案中,佐治亚州的一名电台主持人在发现 ChatGPT 涉嫌散布有关他的虚假信息后起诉 OpenAI,指控他挪用资金。
[ad_2]
Source link