[ad_1]
从表面上看,它似乎是一种可以对一系列工作任务派上用场的工具。 但在您要求聊天机器人总结重要的备忘录或检查您的工作是否有错误之前,请记住,您与 ChatGPT 分享的任何内容都可用于训练系统,甚至可能会在其对其他用户的回复中弹出。 据报道,一些员工在与聊天机器人共享机密信息之前可能应该知道这一点。
据称,在三星的半导体部门开始允许工程师使用 ChatGPT 后不久,工作人员至少三度向其泄露机密信息 (如发现的 ). 据报道,一名员工要求聊天机器人检查敏感数据库源代码是否有错误,另一名员工请求代码优化,第三名员工将录制的会议输入 ChatGPT 并要求其生成会议记录。
建议在了解安全漏洞后,三星试图通过将员工的 ChatGPT 提示长度限制为 1 千字节或 1024 个字符的文本来限制未来失礼的程度。 据说该公司还在调查这三名有问题的员工,并建立了自己的聊天机器人,以防止类似的事故发生。 Engadget 已联系三星征求意见。
ChatGPT 声明,除非用户明确选择退出,否则它会使用他们的提示来训练其模型。 聊天机器人的所有者 OpenAI 不会在对话中与 ChatGPT 共享秘密信息,因为它“无法从您的历史记录中删除特定提示。” 在 ChatGPT 上删除个人身份信息的唯一方法是删除您的帐户——这个过程 .
Samsung saga 是另一个例子,它说明了为什么您的所有在线活动都应该如此。 您永远不会真正知道您的数据最终会去哪里。
[ad_2]
Source link