[ad_1]
在多伦多,本周市长选举中的一名候选人发誓要清理无家可归者营地,他发布了一系列由人工智能阐释的竞选承诺,其中包括人们在市中心街道上露营的假反乌托邦图像以及在公园里搭起帐篷的捏造图像。
在新西兰,一个政党在 Instagram 上发布了一幅逼真的渲染图,描绘了假劫匪在一家珠宝店横冲直撞的情景。
在芝加哥,四月份市长选举中的亚军抱怨说,一个伪装成新闻媒体的推特账户使用人工智能克隆了他的声音,这表明他纵容警察的暴行。
几个月前,人工智能为政治竞选活动撰写的缓慢的筹款电子邮件和宣传图片开始逐渐变成由该技术创建的源源不断的竞选材料,改写了世界各地民主选举的政治剧本。
政治顾问、选举研究人员和立法者越来越多地表示,建立新的护栏,例如限制合成广告的立法,应该成为当务之急。 现有的防御措施,例如声称可以检测人工智能内容的社交媒体规则和服务,未能起到多大作用来减缓这一趋势。
随着 2024 年美国总统竞选开始升温,一些竞选活动已经开始测试该技术。 拜登总统宣布竞选连任后,共和党全国委员会发布了一段人工生成的世界末日场景图像的视频,而佛罗里达州州长罗恩·德桑蒂斯则发布了前总统唐纳德·J·特朗普与前卫生官员安东尼·福奇博士的假照片。官方的。 民主党在春季尝试了由人工智能起草的筹款信息,发现它们在鼓励参与和捐赠方面往往比完全由人类编写的文案更有效。
一些政客将人工智能视为帮助降低竞选成本的一种方式,通过使用人工智能来创建对辩论问题或攻击广告的即时响应,或者分析可能需要昂贵专家的数据。
与此同时,该技术有可能向广大受众传播虚假信息。 专家表示,一段不讨人喜欢的虚假视频、一封充满计算机炮制的虚假叙述的电子邮件或捏造的城市衰败图像,可能会向选民展示他们希望看到的东西,从而强化偏见并扩大党派分歧。
该技术已经比手动操作强大得多——虽然并不完美,但改进迅速且易于学习。 OpenAI 的首席执行官萨姆·奥尔特曼 (Sam Altman) 在去年通过其广受欢迎的 ChatGPT 聊天机器人推动了人工智能热潮,今年 5 月,他对参议院小组委员会表示,他对选举季感到紧张。
他表示,该技术“操纵、说服、提供一对一互动虚假信息”的能力是“一个值得关注的重要领域”。
纽约民主党众议员 Yvette D. Clarke 在上个月的一份声明中表示,2024 年的选举周期“将成为第一次人工智能生成内容盛行的选举”。 她和其他国会民主党人,包括明尼苏达州参议员艾米·克洛布查尔,提出了立法,要求使用人工生成材料的政治广告附带免责声明。 华盛顿州的一项类似法案最近签署成为法律。
美国政治顾问协会最近谴责在政治竞选中使用深度造假内容违反了其道德准则。
该组织即将上任的主席拉里·黄 (Larry Huynh) 表示:“人们会忍不住挑战极限,看看能把事情做到什么程度。” “与任何工具一样,都可能存在不良用途和不良行为,利用它们来欺骗选民、误导选民、让人相信一些不存在的东西。”
这项技术最近对政治的入侵令多伦多感到意外,这座城市支持人工智能研究和初创企业蓬勃发展的生态系统。 市长选举将于周一举行。
竞选中的保守派候选人、前新闻专栏作家安东尼·福雷(Anthony Furey)最近在一份长达数十页的文件中阐述了自己的政纲,其中充满了综合生成的内容,以帮助他确立严厉打击犯罪的立场。
仔细一看,可以清楚地发现许多图像都不是真实的:一个实验室场景的科学家看起来像外星斑点。 另一张渲染图中,一名女子的羊毛衫上别着一枚别针,上面的字迹难以辨认。 类似的标记也出现在建筑工地的警示胶带图像中。 福雷的竞选活动还使用了一张合成肖像,上面是一位坐着的女性,两只手臂交叉,第三只手臂碰着下巴。
其他候选人在本月的一场辩论中利用这张照片来搞笑:“我们实际上使用的是真实照片,”乔什·马特洛说,他展示了一张家人的照片,并补充说“我们照片中没有人有三只手臂。”
尽管如此,草率的效果图还是被用来放大福雷先生的论点。 他获得了足够的动力,成为这场有 100 多名候选人的选举中最知名的名字之一。 在同一场辩论中,他承认在他的竞选活动中使用了这项技术,并补充说“当我们继续更多地了解人工智能时,我们将会在这里开怀大笑”
政治专家担心,人工智能如果被滥用,可能会对民主进程产生腐蚀作用。 错误信息是一种持续存在的风险; Furey 的一位竞争对手在一场辩论中表示,虽然她的员工使用 ChatGPT,但他们总是对其输出进行事实核查。
“如果有人能够制造噪音、制造不确定性或编造虚假叙述,这可能是影响选民并赢得选举的有效方式,”布鲁金斯学会高级研究员达雷尔·M·韦斯特(Darrell M. West)上个月在一份报告中写道。 “由于 2024 年总统选举可能会涉及几个州的数万名选民,因此任何能够推动人们朝某个方向或另一个方向发展的因素最终都可能具有决定性作用。”
提供人工智能检测服务的 Reality Defender 首席执行官本·科尔曼 (Ben Colman) 表示,越来越复杂的人工智能内容越来越频繁地出现在社交网络上,而社交网络基本上不愿意或无法对其进行监管。他说,在问题得到解决之前,就会造成“不可逆转的损害”。
“事后向数百万用户解释他们已经看到和分享的内容是假的,这太少了,也太晚了,”科尔曼先生说。
本月的几天里,Twitch 直播中的拜登先生和特朗普先生的合成版本之间不间断地进行着不安全的工作辩论。 虚假信息专家表示,两者都被明确认定为模拟的“人工智能实体”,但如果有组织的政治运动创造了此类内容,并且在没有任何披露的情况下广泛传播,那么很容易降低真实材料的价值。
政客们可以摆脱责任,声称妥协行为的真实镜头不是真实的,这种现象被称为说谎者的红利。 普通公民可以自己制造假货,而其他人则可以使自己更深入地陷入两极分化的信息泡沫中,只相信他们选择相信的消息来源。
“如果人们不能相信自己的眼睛和耳朵,他们可能只会说,‘谁知道呢?’”乔治城大学安全与新兴技术中心研究员乔什·A·戈尔茨坦在一封电子邮件中写道。 “这可能会促进从鼓励良好习惯(例如横向阅读和寻找可靠来源)的健康怀疑主义转变为不可能知道真相的不健康怀疑主义。”
[ad_2]
Source link