[ad_1]
C关于在大型语言模型(例如 OpenAI 的 GPT-4、谷歌的 Bard 和微软的 Bing Chat)上训练的聊天机器人的能力不断增强的担忧正在成为头条新闻。 专家警告说,他们有能力以巨大的规模传播错误信息,以及他们的发展可能对人类构成的生存风险。 似乎这还不够令人担忧,第三个令人担忧的领域已经出现——意大利最近以隐私为由禁止使用 ChatGPT 就是例证。
意大利数据监管机构对 ChatGPT 所有者 OpenAI 使用的模型表示担忧,并宣布将调查该公司是否违反了严格的欧洲数据保护法。
聊天机器人可用于工作和个人任务,但它们会收集大量数据。 人工智能还带来了多种安全风险,包括帮助犯罪分子进行更有说服力和更有效的网络攻击的能力。
聊天机器人是否比搜索引擎更受隐私关注?
大多数人都知道谷歌等搜索引擎带来的隐私风险,但专家认为聊天机器人可能更需要数据。 他们的对话天性会让人们措手不及,并鼓励他们提供比输入搜索引擎更多的信息。 Lewis Silkin 律师事务所数据和隐私团队的法律总监 Ali Vaziri 警告说:“人性化的风格可能会让用户失去戒心。”
聊天机器人通常会收集文本、语音和设备信息以及可以揭示您位置的数据,例如您的 IP 地址。 伯明翰城市大学副院长 Lucian Tipi 博士说,与搜索引擎一样,聊天机器人收集社交媒体活动等数据,这些数据可以链接到您的电子邮件地址和电话号码。 “随着数据处理变得更好,对更多信息的需求也越来越大,网络上的任何东西都变得公平。”
虽然聊天机器人背后的公司表示需要您的数据来帮助改进服务,但它也可以用于有针对性的广告。 软件公司 ESET 的全球网络安全顾问 Jake Moore 说,每次你向 AI 聊天机器人寻求帮助时,微计算都会为算法提供个人资料。 “这些标识符经过分析,可用于针对我们投放广告。”
这已经开始发生了。 微软宣布正在探索将广告引入 Bing Chat 的想法。 最近还发现微软员工可以读取用户的聊天机器人对话,这家美国公司更新了隐私政策以反映这一点。
ChatGPT 的隐私政策“似乎并未为对个人数据进行商业利用打开大门”,Dorsey & Whitney 律师事务所的合伙人 Ron Moscona 说。 他说,该政策“承诺保护人们的数据”并且不会与第三方共享。
然而,虽然谷歌也承诺不与第三方共享信息,但该科技公司更广泛的隐私政策允许它使用数据为用户提供有针对性的广告。
如何私下安全地使用聊天机器人?
私下和安全地使用聊天机器人很困难,但有一些方法可以限制它们收集的数据量。 例如,使用 ExpressVPN 或 NordVPN 等 VPN 来屏蔽您的 IP 地址是个好主意。
Freeths 律师事务所的数据、隐私和 AI 专家 Will Richmond-Coggan 表示,在现阶段,这项技术太新、太不完善,无法确保它的私密性和安全性。 他说,在共享任何数据之前应该“相当小心”——尤其是如果信息是敏感的或与业务相关的。
Moscona 说,聊天机器人的性质意味着它总是会透露有关用户的信息,无论服务的使用方式如何。 “即使您通过匿名帐户或 VPN 使用聊天机器人,随着时间的推移,您提供的内容也可能会泄露足够的信息以供识别或追踪。”
但支持其聊天机器人产品的科技公司表示,您可以安全地使用它们。 微软表示,其 Bing Chat“对如何使用你的数据进行了深思熟虑”以提供良好的体验,并“保留了 Bing 传统搜索的政策和保护措施”。
Microsoft 通过加密等技术保护隐私,并且仅在必要时存储和保留信息。 Microsoft 还通过 Microsoft 隐私仪表板提供对搜索数据的控制。
ChatGPT 创建者 OpenAI 表示,它已经训练模型拒绝不适当的请求。 “我们使用我们的审核工具来警告或阻止某些类型的不安全和敏感内容,”一位发言人补充道。
使用聊天机器人来帮助完成工作任务怎么样?
聊天机器人在工作中可能很有用,但专家建议您谨慎行事,以免分享过多和违反法规,例如欧盟对通用数据保护法规 (GDPR) 的更新。 考虑到这一点,包括摩根大通和亚马逊在内的公司已经禁止或限制员工使用 ChatGPT。
风险如此之大,以至于开发人员自己建议不要使用它们。 “我们无法从您的历史记录中删除特定提示,”ChatGPT 的常见问题解答指出。 “请不要在谈话中分享任何敏感信息。”
Moscona 说,将免费的聊天机器人工具用于商业目的“可能是不明智的”。 “ChatGPT 的免费版本没有就如何保护聊天的安全性或聊天机器人生成的输入和输出的机密性提供明确和明确的保证。 虽然使用条款承认用户的所有权,隐私政策也承诺保护个人信息,但对信息安全却含糊不清。”
微软表示 Bing 可以帮助完成工作任务,但“我们不建议将公司机密信息提供给任何消费者服务”。
如果你必须使用一个,专家建议谨慎。 “遵守公司的安全政策,永远不要共享敏感或机密信息,”数据咨询公司 Covelent 的首席执行官 Nik Nicholas 说。
微软为商业用途提供了一款名为 Copilot 的产品,该产品采用了该公司对其企业产品 Microsoft 365 更严格的安全、合规和隐私政策。
我如何发现不良行为者或 AI 生成的恶意软件、电子邮件或其他恶意内容?
随着聊天机器人嵌入互联网和社交媒体,成为恶意软件或恶意电子邮件受害者的机会将会增加。 英国国家网络安全中心 (NCSC) 就人工智能聊天机器人的风险发出警告,称为它们提供支持的技术可能会被用于网络攻击。
专家表示,ChatGPT 及其竞争对手有可能使不良行为者能够构建更复杂的网络钓鱼电子邮件操作。 例如,生成各种语言的电子邮件将很简单——因此语法错误和拼写错误等欺诈性消息的明显迹象将不那么明显。
考虑到这一点,专家建议比以往任何时候都更加警惕点击链接或从未知来源下载附件。 与往常一样,Nicholas 建议使用安全软件并保持更新以防止恶意软件。
语言可能无可挑剔,但聊天机器人内容通常可能包含事实错误或过时信息——这可能是非人类发件人的迹象。 它也可以有一种平淡、公式化的写作风格——但这可能有助于而不是阻碍坏演员机器人作为官方交流。
支持 AI 的服务正在迅速兴起,随着它们的发展,风险会越来越大。 专家表示,ChatGPT 之类的软件可用于帮助网络犯罪分子编写恶意软件,人们担心输入聊天服务的敏感信息会在互联网上泄露。 其他形式的生成人工智能——能够生成语音、文本或图像等内容的人工智能——可以为犯罪分子提供机会,例如通过模仿银行员工询问密码来制作更逼真的所谓的深度伪造视频。
具有讽刺意味的是,人类更善于发现这些类型的人工智能威胁。 Richmond-Coggan 说:“防范恶意软件和坏人 AI 的最好办法就是提高警惕。”
[ad_2]
Source link