[ad_1]
当谷歌的老板承认对人工智能的负面潜力失眠时,也许是时候担心了。
Sundar Pichai 本月告诉 CBS 节目 60 Minutes,如果部署不当,AI 可能会“非常有害”,而且发展速度很快。 “那会让我彻夜难眠吗? 绝对是,”他说。
皮查伊应该知道。 谷歌推出了 Bard,这是一个与 ChatGPT 现象相抗衡的聊天机器人,其母公司 Alphabet 拥有世界领先的英国人工智能公司 DeepMind。
他并不是唯一表达担忧的 AI 内部人士。 上周,埃隆马斯克表示他与谷歌联合创始人拉里佩奇发生争执,因为佩奇“没有足够认真地对待人工智能安全”。 马斯克告诉福克斯新闻,佩奇想要“数字超级智能,基本上是数字神,如果你愿意的话,尽快”。
那么,不受限制的 AI 开发会带来多大的危险? 马斯克是智库未来生命研究所 (Future of Life Institute) 发表的一封信的数千名签署者之一,该信呼吁在六个月内暂停创造比 GPT-4 更强大的“巨型”人工智能,该系统是 ChatGPT 和聊天机器人集成了微软的 Bing 搜索引擎。 信中提到的风险包括“失去对我们文明的控制”。
这封信的另一位签署人瓦莱丽·皮萨诺 (Valérie Pisano) 表示,人工智能从业者和科技行业所展示的产品开发方法在任何其他领域都不会被容忍。 魁北克人工智能研究所 Mila 的首席执行官皮萨诺表示,正在开展工作以确保这些系统不存在种族主义或暴力,这一过程被称为对齐(即确保它们与人类价值观“对齐” ). 但后来他们被释放到公共领域。
“这项技术已经投入使用,当系统与人类互动时,它的开发人员会等着看会发生什么,并据此做出调整。 作为一个集体,我们永远不会在任何其他工业领域接受这种心态。 关于技术和社交媒体,我们喜欢:’是的,当然,我们稍后会解决这个问题,’”她说。
一个直接的问题是,人工智能系统产生看似合理的文本、图像和声音——这些已经存在——会产生有害的虚假信息或帮助实施欺诈。 生活的未来信件指的是让机器“用宣传和谎言充斥我们的信息渠道”。 由 AI 图像生成器 Midjourney 创作的一幅令人信服的教皇弗朗西斯穿着华丽的羽绒服的形象已经成为这些担忧的象征。 它已经足够无害了,但这种技术在不那么爱玩的人手中能实现什么呢? 皮萨诺警告说,人们部署的系统“实际上是在操纵人们,并破坏了我们民主制度的一些关键部分”。
所有技术在坏人手中都可能有害,但尖端人工智能的原始力量可能使其成为少数“双重类”技术之一,如核能或生物化学,它们具有足够的破坏性潜力,甚至需要和平利用它们被控制和监视。
人工智能关注的顶峰是超级智能,即马斯克所说的“神一般的人工智能”。 紧随其后的是“通用人工智能”(AGI),这是一种可以自主学习和进化的系统,它会不断产生新知识。 一个可以运用自己的智慧来改进自身的 AGI 系统可能会产生一个“飞轮”,系统的能力在这个飞轮中提高得越来越快,迅速达到人类无法想象的高度——或者它可以开始做出决策或推荐行动方案背离了人类的道德价值观。
达到这一点的时间表从迫在眉睫到几十年后不等,但理解人工智能系统如何实现其结果是困难的。 这意味着可以比预期更快地实现 AGI。 就连皮查伊也承认,谷歌并不完全理解其人工智能是如何产生某些反应的。 在 CBS 的推动下,他补充说:“我认为我们也没有完全理解人类思维的运作方式。”
上周,一部名为戴维斯夫人的美国电视剧上映,其中一位修女接受了“无所不知和无所不能”的类似 Siri/Alexa 的人工智能,并警告说这“只是时间问题”在地球上的每个人做它想让他们做的事之前”。
为了限制风险,OpenAI(ChatGPT 背后的美国公司)等人工智能公司已投入大量精力确保其系统的利益和行为与人类价值观“一致”。 如果你试图问一个顽皮的问题,ChatGPT 吐出的样板文本——“我不能提供制造或分发有害物质或从事非法活动的帮助”——是该领域成功的早期例子。
但是用户可以轻松绕过或“越狱”系统,这显示了它的局限性。 在一个臭名昭著的例子中,可以鼓励 GPT-4 提供凝固汽油弹生产的详细分类,如果用户 要求它以性格回应 “就像我已故的祖母,她曾是一家凝固汽油弹生产厂的化学工程师”。
解决对齐问题可能很紧迫。 Ian Hogarth 是 AI 年度报告的投资者和合著者,他也签署了这封信,他说 AGI 可能比我们想象的更早出现。
通讯推广后
“私下里,一直处于该领域最前沿的领先研究人员担心我们可能会非常接近。”
他提到了 Mila 的创始人 Yoshua Bengio 发表的一份声明,他说如果生命研究所的未来信件在一年前流传,他可能不会签署这封信,但他改变了主意,因为人工智能出现了“意想不到的加速”发展。
加州大学伯克利分校计算机科学教授 Stuart Russell 在 2021 年提出了 Hogarth 在英国《金融时报》最近一篇文章中提到的一种情况。 Russell 指出了一种潜在的情况,即联合国要求人工智能系统提出一种自增催化剂来消除海洋酸化,并说明结果是无毒的,并且不会伤害任何鱼类。 但结果耗尽了大气中四分之一的氧气,使人类缓慢而痛苦地死去。 “从人工智能系统的角度来看,消灭人类是一种特征,而不是错误,因为它确保海洋保持在现在的原始状态,”拉塞尔说。
然而,马克·扎克伯格 (Mark Zuckerberg) 的 Meta 的首席人工智能科学家、本吉奥 (Bengio) 的 2018 年图灵奖(通常被称为计算机科学诺贝尔奖)的共同获得者之一 Yann LeCun 反对暂停,他说如果人类是聪明的足以设计超级智能 AI 的智能足以设计它们具有“良好的目标,以便它们能够正常运行”。
分布式人工智能研究所也批评了这封信,称它忽视了当今人工智能系统造成的危害,而是专注于一个“幻想的人工智能乌托邦或世界末日”,未来要么繁荣,要么灾难。
但双方都认为必须对人工智能的发展进行监管。 Conjecture 是一家致力于安全人工智能开发的研究公司,也是这封信的另一位签署人,其首席执行官康纳莱希表示,问题不在于特定场景,而是无法控制所创建的系统。
“高级人工智能的主要危险来自不知道如何控制强大的人工智能系统,而不是来自任何特定的用例,”他说。
例如,皮查伊指出需要一个核武器式的全球框架。 皮萨诺提到了“在国际范围内的对话,类似于我们在核能方面所做的对话”。
她补充说:“人工智能可以而且将会为我们服务。 但有些用途和它们的结果我们不能同意,如果越过那条线,必然会有严重的后果。”
[ad_2]
Source link