[ad_1]
当拜登总统在 10 月份宣布严格限制向中国出售最先进的计算机芯片时,他出售这些芯片的部分原因是让美国工业有机会恢复其竞争力。
但在五角大楼和国家安全委员会,还有第二个议程:军备控制。
该理论认为,如果中国军方无法获得芯片,它可能会放慢开发人工智能驱动武器的步伐。 这将使白宫和全世界有时间找出在传感器、导弹和网络武器中使用人工智能的一些规则,并最终防范好莱坞制造的一些噩梦——自动杀手机器人和锁定计算机他们的人类创造者。
现在,围绕着流行的 ChatGPT 聊天机器人和其他生成式人工智能软件的恐惧迷雾使得将芯片限制在北京看起来只是一个临时解决方案。 周四,当拜登先生在白宫拜访正在努力限制技术风险的技术高管会议时,他的第一条评论是“你们正在做的事情具有巨大的潜力和巨大的危险。”
他的国家安全助手说,这反映了最近的机密简报,内容涉及新技术有可能颠覆战争、网络冲突,以及——在最极端的情况下——关于使用核武器的决策。
但就在拜登发出警告时,五角大楼官员在技术论坛上表示,他们认为暂停开发下一代 ChatGPT 和类似软件六个月的想法是个坏主意:中国人不会等等,俄罗斯人也不会。
“如果我们停下来,猜猜谁不会停下来:海外的潜在对手,”五角大楼首席信息官约翰谢尔曼周三表示。 “我们必须继续前进。”
他的直言不讳突显了当今整个国防界的紧张气氛。 没有人真正知道这些新技术在开发和控制武器方面的能力,他们也不知道什么样的军备控制制度(如果有的话)可能奏效。
预感是模糊的,但令人深感担忧。 ChatGPT 能否授权以前无法轻易获得破坏性技术的不良行为者? 它会不会加速超级大国之间的对抗,从而使外交和谈判的时间所剩无几?
“这个行业并不愚蠢,你已经看到了自我监管的努力,”谷歌前董事长埃里克施密特说,他曾在 2016 年至 2020 年担任国防创新委员会首任主席。
施密特先生说:“因此,业界现在正在进行一系列非正式对话——都是非正式的——关于人工智能安全规则是什么样子的,”施密特先生与前国务卿亨利基辛格一起撰写了一系列关于人工智能颠覆地缘政治的潜力的文章和书籍。
任何测试过 ChatGPT 初始迭代的人都清楚将护栏放入系统的初步努力。 这些机器人不会回答有关如何用酿造的药物伤害某人的问题,例如,或者如何炸毁大坝或削弱核离心机,美国和其他国家在没有人工智能工具的情况下参与的所有行动.
但是那些行动黑名单只会减缓这些系统的滥用; 很少有人认为他们可以完全阻止这种努力。 总有一些技巧可以绕过安全限制,任何试图关闭汽车安全带警告系统紧急蜂鸣声的人都可以证明这一点。
尽管新软件让这个问题变得普遍,但对于五角大楼来说,这并不是什么新鲜事。 十年前发布了关于开发自主武器的第一条规则。 五角大楼的联合人工智能中心成立于五年前,旨在探索人工智能在战斗中的应用。
一些武器已经在自动驾驶仪上运行。 击落进入受保护空域的导弹或飞机的爱国者导弹长期以来一直具有“自动”模式。 它使他们能够在没有人为干预的情况下开火,当被传入的目标淹没时,速度快于人类的反应。 但它们应该受到人类的监督,人类可以在必要时中止攻击。
伊朗最高核科学家穆赫森·法赫里扎德 (Mohsen Fakhrizadeh) 的暗杀行动是由以色列的摩萨德 (Mossad) 使用由人工智能辅助的自动机枪进行的,尽管似乎已经进行了高度遥控。 俄罗斯最近表示,它已经开始制造——但尚未部署——其海底波塞冬核鱼雷。 如果它不辜负俄罗斯的炒作,这种武器将能够自主穿越海洋,避开现有的导弹防御系统,在发射几天后发射核武器。
到目前为止,还没有涉及此类自主武器的条约或国际协定。 在军备控制协议被放弃的速度快于谈判速度的时代,达成这样的协议的希望渺茫。 但 ChatGPT 及其同类产品提出的挑战类型不同,而且在某些方面更为复杂。
在军队中,注入人工智能的系统可以加快战场决策的速度,以至于它们会产生全新的意外打击风险,或者根据误导性或故意错误的攻击警报做出决策。
“人工智能在军事和国家安全方面的一个核心问题是如何防御比人类决策速度更快的攻击,我认为这个问题尚未解决,”施密特先生说。 “换句话说,导弹来得太快了,必须有自动反应。 如果这是一个错误的信号会怎样?”
冷战期间充斥着错误警告的故事——曾经是因为本应用于练习核反应的训练磁带不知何故被输入了错误的系统,并引发了苏联大规模进攻的警报。 (良好的判断力导致每个人都下台。)新美国安全中心的保罗沙雷在他 2018 年出版的《无人军队》一书中指出,“从 1962 年到 2002 年,至少发生了 13 起近用核事件”,这“这证实了这样一种观点,即未遂事件是核武器的正常情况,即使是可怕的情况。”
出于这个原因,当超级大国之间的紧张局势远低于今天时,历任总统都试图通过谈判为各方的核决策留出更多时间,这样就没有人会匆忙卷入冲突。 但生成式人工智能有可能将各国推向另一个方向,即加快决策速度。
好消息是大国可能会小心——因为他们知道对手的反应会是什么样子。 但到目前为止,还没有商定的规则。
前国务院官员、现任 Rice、Hadley、Gates and Manuel 咨询集团负责人的 Anja Manuel 最近写道,即使中国和俄罗斯还没有准备好就 AI 进行军备控制谈判,关于该主题的会议将导致讨论人工智能的哪些用途被视为“超出范围”。
当然,五角大楼也会担心同意许多限制。
计算机科学家丹尼·希利斯 (Danny Hillis) 说:“我非常努力地争取获得一项政策,如果你拥有武器的自主元件,就需要一种方法来关闭它们,”他是用于人工智能的并行计算机的先驱。 曾在国防创新委员会任职的希利斯先生说,五角大楼官员反击说,“如果我们可以关闭它们,敌人也可以关闭它们。”
更大的风险可能来自个体行为者、恐怖分子、勒索软件组织或拥有先进网络技能的较小国家(如朝鲜),它们学习如何克隆更小、限制更少的 ChatGPT 版本。 他们可能会发现生成式 AI 软件非常适合加速网络攻击和瞄准虚假信息。
微软的信任和安全运营负责人汤姆伯特正在加速使用新技术改造其搜索引擎,他在乔治华盛顿大学最近的一个论坛上表示,他认为人工智能系统将帮助防御者比他们更快地检测异常行为会帮助攻击者。 其他专家不同意。 但他表示,他担心人工智能会“加速”有针对性的虚假信息的传播。
所有这一切都预示着一个新的军备控制时代。
一些专家表示,由于无法阻止 ChatGPT 和类似软件的传播,最好的希望是限制推进该技术所需的专用芯片和其他计算能力。 毫无疑问,这将是未来几年提出的众多不同军备控制计划之一,而此时主要核大国至少似乎对就旧武器进行谈判不感兴趣,更不用说新武器了。
[ad_2]
Source link