[ad_1]
伦敦,6 月 16 日 (IPS) – 对技术的监管通常会在其用于产品或服务后的某个时间出现,或者更糟的是,风险变得明显。 当真正的伤害已经造成时,这种响应式方法是令人遗憾的,就像现在的人工智能一样。 存在生存风险,这种方法将冒着人类生存终结的风险。
在过去的几个月里,ChatGPT 和 GPT4 等生成式人工智能 (AI) 系统在完全没有(官方)监管控制的情况下可用。 这与需要满足众多法规和安全标准的新型塑料鸭子玩具形成鲜明对比。 事实上,当规则乌龟在移动时,AI 兔子一直在疾驰,但远远落后。 这必须改变——现在。
令全球 AI 专家震惊的是最近从 GPT 3.5 到 GPT 4 的进展。在几个月内,GPT 的能力在多项测试中取得了巨大进步,例如从在美国律师考试中的第 10 个百分位范围达到了GPT-4 的第 90 个百分位数。
为什么这很重要,你可能会问。 如果在接下来的 3、6 或 12 个月内以相同的速度向前预测进展速度,这将迅速导致非常强大的 AI。 如果不受控制,这种 AI 可能不仅有能力做好事,也有能力造成很多伤害——而且一旦被释放,可能就无法再控制它的致命风险。
人工智能的许多方面都需要或将需要监管和控制。 除了新的大型语言模型 (LLM) 之外,今天已经有很多例子,例如以注意力为中心的社交媒体模型、深度造假、偏见的存在以及人工智能控制监视的滥用。
这些可能会导致我们与工作的关系发生根本性变化,并导致某些工作过时,包括迄今为止基本上不受自动化影响的办公室工作。 预计很快还会有专业的人工影响者试图说服你以某种方式购买东西或思考或投票——有人说这个过程已经开始。
如果没有控制,朝着越来越智能的 AI 发展将导致通用人工智能(AGI – 相当于人类在广泛领域的能力)和超级智能(非常卓越的智能)。 随着我们失去地球上最高智能的地位,世界将进入一个标志着人类衰落甚至可能灭亡的时代。
这种最近的进展速度导致 Yoshua Bengio 和 Geoffrey Hinton,即所谓的“人工智能/深度学习教父”,完全重新评估了他们开发 AGI 的预期时间框架。 最近,他们都从根本上提出了他们的估计,他们现在评估 AGI 分别在 5 到 50 年和 5 到 20 年内达到。
人类绝不能故意冒灭绝的风险,这意味着人类需要在开发高级人工智能之前实施控制。 已经提出了控制高级 AI 的解决方案,例如 Stuart Russell 的 Beneficial AI,其中 AI 被赋予了实现人类偏好的目标。 它需要观察这些偏好,并且由于它理解它可能没有准确地解释它们,所以它会谦虚并准备好被关闭。
这种系统的开发在实践中实现起来非常具有挑战性。 即使在野兔最近的一次飞跃之前,这样的解决方案是否会及时可用也是值得怀疑的。 是否能及时提供现在至关重要——这就是为什么 Geoffrey Hinton 建议所有 AI 研究支出的 50% 应该用于 AI 安全。
除了这些全面但具有挑战性的解决方案之外,最近还提出了一些实用的想法来降低风险,从限制大型语言模型的计算能力访问到创建相当于国际的人工智能机构。维也纳原子能机构。 在实践中,需要的是技术解决方案的组合,例如 Beneficial AI、与 AI 开发相关的务实解决方案和合适的治理框架。
作为人工智能系统,就像当今计算机云中的许多软件服务一样,可以跨越国界。 互操作性将是一个关键挑战,显然需要一种全球治理方法。 为了具有全球合法性,此类倡议应成为由适当的全球机构管理的协调行动计划的一部分。 这应该是联合国,形成了联合国人工智能框架公约(UNFCAI)。
目前预计将在未来 12 个月左右出现的具有约束力的协议是欧盟的《欧盟人工智能法案》和欧洲委员会的《人工智能框架公约》。 欧洲委员会的工作重点是人工智能对人权、民主和法治的影响。 虽然欧洲委员会条约的参与范围比欧盟广泛得多,欢迎其他国家成为签署国,但它并不是真正的全球范围。
联合国的主要优势在于它将寻求包括俄罗斯和中国在内的所有国家,这些国家与西方有着不同的价值观。 中国拥有世界上最强大的两个人工智能领域之一。 许多人认为最终将需要一个联合国机制——但“最终”这个词已被最近发生的事件完全颠倒过来。 AGI 在 5 年后出现的可能性表明,到那时,一个制度应该已经完全发挥作用。 可以在 G7 中找到一个更灵活的机构家园,但这将缺乏全球合法性、包容性和公民社会的投入。
有些人担心,通过以建设性的方式与中国、俄罗斯和其他专制国家接触,你正在验证他们对人权和民主的态度。 很明显,在这些问题上的政策存在重大差异,但像人工智能这样严肃的事情的有效治理不应受到这些担忧的危害。
近年来,联合国在人工智能方面取得的进展有限。 早在 2020 年,秘书长就呼吁建立全球人工智能合作的多方利益相关者咨询机构。 三年后,他仍在提议成立一个类似的顾问委员会。 这种延误令人非常遗憾,需要紧急补救。 因此,特别令人振奋的是,看到秘书长在过去几天就人工智能治理提出了强有力的建议,包括一项关于人工智能全球治理的协议。
欧盟专员玛格丽特维斯塔格呼吁分三步走,即国家,然后是志同道合的国家,然后是联合国。 问题是这三个人是否有足够的时间。 联合国秘书长最近批准了今年秋天在英国举行人工智能安全峰会的拟议英国倡议,这是一个积极的发展
互联网治理论坛 (IGF) 成立于 2005 年,旨在将来自不同利益相关方团体的人们平等地聚集在一起,讨论与互联网相关的问题。 就人工智能而言,政策制定可以受益于这样一个论坛,即多利益相关方人工智能治理论坛 (AIGF)。
这将提供一个初始论坛,来自世界各地的利益相关者可以在其中就要遵循的原则、需要紧急人工智能全球治理的人工智能方面以及解决每个问题的方法交换意见。 至关重要的是,我们需要的是一个明确的人工智能全球治理路线图和一个明确的时间表。
AIGF 可以支持新的人工智能高级咨询机构的工作,两者都将负责制定路线图,从而建立联合国人工智能框架公约。
近几个月来,人工智能野兔展示了它在短时间内走很远的路的能力。 规则乌龟已经离开了起跑线,但还有很多需要追赶的地方。 比赛的长度刚刚缩短,因此野兔最近的冲刺非常令人担忧。 在伊索寓言中,乌龟最终赢得了比赛,因为过于自信的兔子在路边午睡了。 人类不应该假设人工智能也会这样做。
需要共同努力来完成欧盟人工智能法案和欧洲委员会人工智能框架公约。 与此同时,在联合国,利益攸关方需要紧急聚集在一起,分享他们的观点,并与各国合作建立有效、及时的全球人工智能治理结构。
需要阐明关于人工智能治理的联合国协议,并且需要将有效和及时的全球治理前景引入人工智能安全时代作为全球最高优先事项。 拟议的今年秋天在英国举行的人工智能安全峰会应该提供第一个检查点。
罗伯特惠特菲尔德 是同一个世界信托基金主席和世界联邦主义运动/政府政策研究所人工智能跨国工作组主席。
IPS联合国局
关注@IPSNewsUNBureau
在 Instagram 上关注 IPS 新闻联合国局
© Inter Press Service (2023) — 保留所有权利原始出处:国际新闻社
[ad_2]
Source link