[ad_1]
埃隆·马斯克 (Elon Musk) 和其他数千人共同签署的一封要求暂停人工智能研究的信引发了一场风暴,在信中引用的研究人员谴责其使用他们的工作后,一些签名者被揭露是假的,而其他人则退出了在他们的支持下。
3 月 22 日,包括马斯克、认知科学家加里·马库斯和苹果公司联合创始人史蒂夫·沃兹尼亚克在内的 1,800 多名签名者呼吁暂停开发比 GPT-4“更强大”的系统六个月。 来自亚马逊、DeepMind、谷歌、Meta 和微软的工程师也提供了支持。
GPT-4 由 OpenAI 开发,OpenAI 是一家由马斯克共同创立的公司,现在得到了微软的支持,它已经具备了进行类人对话、创作歌曲和总结冗长文档的能力。 信中称,这种具有“人类竞争情报”的人工智能系统对人类构成了深远的风险。
“人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套由独立外部专家严格审计和监督的高级人工智能设计和开发的共享安全协议,”信中说。
生命未来研究所,协调这些努力的智囊团, 引用了 12 项来自专家的研究,包括大学学者以及 OpenAI、谷歌及其子公司 DeepMind 的现任和前任员工。 但信中引用的四位专家对他们的研究被用来提出此类主张表示担忧。
最初发布时,这封信缺乏签名验证协议,并收集了实际上没有签名的人的签名, 包括 习近平与 Meta 首席 AI 科学家 Yann LeCun,谁 澄清 在推特上他不支持。
批评者指责主要由马斯克基金会资助的未来生命研究所 (FLI) 优先考虑想象中的世界末日场景,而不是对人工智能更直接的担忧——比如机器中被编程的种族主义或性别歧视偏见。
引用的研究包括“关于随机鹦鹉的危险”,这是一篇著名的论文,由玛格丽特·米切尔 (Margaret Mitchell) 合着,她曾在谷歌负责道德人工智能研究。 现任人工智能公司 Hugging Face 首席伦理科学家的米切尔批评了这封信,他告诉路透社,目前尚不清楚什么才算是“比 GPT4 更强大”。
“通过将许多有问题的想法视为既定的,这封信断言了一系列优先事项和对人工智能的叙述,这有利于 FLI 的支持者,”她说。 “现在忽略积极的伤害是我们中的一些人所没有的特权。”
她的合著者 Timnit Gebru 和 Emily M Bender 在 Twitter 上批评了这封信,后者称其某些说法“精神错乱”。 康涅狄格大学助理教授 Shiri Dori-Hacohen 也对信中提到她的工作提出异议。 她去年与人合着了一篇研究论文,认为人工智能的广泛使用已经带来了严重的风险。
她的研究认为,目前人工智能系统的使用可能会影响与气候变化、核战争和其他生存威胁相关的决策。
她告诉路透社:“人工智能不需要达到人类水平的智能来加剧这些风险。”
“有些不存在的风险确实非常重要,但却没有受到好莱坞级别的关注。”
当被要求对批评发表评论时,FLI 总裁 Max Tegmark 表示,应该认真对待人工智能的短期和长期风险。 “如果我们引用某人的话,就意味着我们声称他们赞同这句话。 这并不意味着他们认可这封信,或者我们认可他们认为的一切,”他告诉路透社。
[ad_2]
Source link