[ad_1]
超过 1,000 名人工智能专家、研究人员和支持者加入呼吁,要求立即暂停创建“巨型”人工智能至少六个月,以便可以适当研究和减轻 GPT-4 等系统的能力和危险.
这一要求是在一封由主要 AI 参与者签署的公开信中提出的,其中包括 Elon Musk,他是 OpenAI 的联合创始人,OpenAI 是负责 ChatGPT 和 GPT-4 的研究实验室; 伦敦 Stability AI 的创始人 Emad Mostaque; 和史蒂夫沃兹尼亚克,苹果公司的联合创始人。
它的签署者还包括来自 DeepMind、微软、Meta、谷歌和亚马逊的工程师,以及包括认知科学家 Gary Marcus 在内的学者。
“最近几个月,人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——无法理解、预测或可靠地控制,”信中说。 “只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。”
作者在“长期主义者”智囊团“未来生命研究所”的协调下,引用了 OpenAI 自己的联合创始人山姆奥特曼来证明他们的呼吁是正确的。 在 2 月份的一篇帖子中,Altman 写道:“在某些时候,在开始训练未来系统之前获得独立审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新模型的计算增长率”
信中继续说道:“我们同意。 那一点就是现在。”
作者说,如果研究人员不会自愿暂停他们在比 GPT-4(这封信中“巨型”模型的基准)更强大的 AI 模型上的工作,那么“政府应该介入”。
他们补充说:“这并不意味着总体上暂停 AI 开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。”
自 GPT-4 发布以来,OpenAI 一直在通过“插件”为人工智能系统添加功能,使其能够在开放网络上查找数据、计划假期,甚至订购杂货。 但该公司必须应对“能力过剩”问题:其自有系统在发布时比它知道的更强大。
随着研究人员在未来几周和几个月内对 GPT-4 进行试验,他们可能会发现“提示”系统以提高其解决难题能力的新方法。 最近的一项发现是,如果首先告诉人工智能“以知识渊博的专家的风格”回答问题,它在回答问题时会明显更准确。
要求严格监管的呼吁与周三发布的英国政府旗舰 AI 监管白皮书形成鲜明对比,该白皮书根本不包含任何新权力。 相反,政府表示,重点是协调现有的监管机构,例如竞争和市场管理局以及健康与安全执行官,提供五项“原则”,他们应该通过这些原则来考虑人工智能。
科学、创新和技术部长米歇尔·多尼兰 (Michelle Donelan) 表示:“我们的新方法基于强有力的原则,因此人们可以相信企业会释放这种未来技术。”
Ada Lovelace Institute 是批评该公告的机构之一。 “英国的方法存在重大差距,可能导致危害得不到解决,而且相对于挑战的紧迫性和规模而言,它的力量不足,”该智库负责数据和人工智能法律与政策的迈克尔·伯特威斯尔 (Michael Birtwistle) 说。
“政府制定的一年或更长时间的实施时间表将使风险得不到解决,因为人工智能系统正在迅速融入我们的日常生活,从搜索引擎到办公套件软件。”
工党也加入了批评行列,影子文化大臣露西鲍威尔指责政府“辜负了他们的承诺”。
她说:“这项规定将需要数月甚至数年才能生效。 与此同时,ChatGPT、谷歌的 Bard 和许多其他公司正在让 AI 成为我们日常生活的一部分。
“政府有可能加强我们现有监管体系中的差距,并使该体系对于企业和公民来说非常复杂,与此同时,他们正在通过即将出台的数据法案削弱这些基础。”
[ad_2]
Source link