[ad_1]
吨当我们开始谈话时,Geoffrey Hinton 说的第一句话,也是他在我关闭录音机之前重复的最后一件事,是他以良好的条件离开了他过去十年的雇主谷歌。 “我不反对谷歌已经做过或正在做的事情,但显然媒体喜欢把我说成‘心怀不满的谷歌员工’。 不像那样。”
这是一个重要的澄清,因为很容易得出相反的结论。 毕竟,当大多数人冷静地将他们的前雇主描述为一小部分公司中的一员时,他们正在制定一条极有可能消灭人类本身的路线,他们这样做是带着一种责备感。 但是听 Hinton 说,我们即将梦游到对文明的生存威胁,而根本没有任何人参与恶意行为。
被誉为“AI 三大教父”之一的 Hinton 于 2018 年因其在“深度学习”方面的工作获得了 ACM 图灵奖——计算机科学家的诺贝尔奖。 作为一名训练有素的认知心理学家和计算机科学家,他的动机并不是要从根本上改进技术:相反,这是为了更多地了解我们自己。
“在过去的 50 年里,我一直在尝试制造可以像大脑学习一样学习东西的计算机模型,以便更好地理解大脑是如何学习事物的,”他在我们见面时告诉我他姐姐在伦敦北部的房子,他住在那里(他通常居住在加拿大)。 这位 75 岁的前教授解释了他的研究历史,以及它如何不可避免地使他得出结论我们可能完蛋了。
在尝试模拟人脑的工作方式时,欣顿发现自己是“神经网络”领域的领导者之一,“神经网络”是一种构建可以从数据和经验中学习的计算机系统的方法。 直到最近,神经网络还是一种奇特的东西,它需要强大的计算机能力来执行比其他方法更糟糕的简单任务。 但在过去十年中,随着处理能力和庞大数据集的可用性呈爆炸式增长,Hinton 开创的方法最终成为技术革命的中心。
“在尝试思考大脑如何实施所有这些模型背后的算法时,我决定它也许不能——也许这些大模型实际上比大脑好得多,”他说。
他说,像我们这样的“生物智能”具有优势。 它以低功率运行,“只有 30 瓦,即使在你思考时”,而且“每个人的大脑都有点不同”。 这意味着我们通过模仿他人来学习。 但这种方法在信息传递方面“非常低效”。 相比之下,数字智能有一个巨大的优势:在多个副本之间共享信息是微不足道的。 “你在能量方面付出了巨大的代价,但当其中一个人学到一些东西时,所有人都知道了,你可以轻松地存储更多副本。 好消息是,我们发现了长生不老的秘密。 坏消息是,它不适合我们。”
一旦他接受了我们正在构建的智能有可能超越人类,就会得出更令人震惊的结论。 “我认为它最终会发生,但我们有足够的时间:30 到 50 年。 我不这么认为了。 And I don’t know any examples of more intelligent things being controlled by less intelligent things – at least, not since Biden got elected.
“你需要想象一些比我们更聪明的东西,就像我们比青蛙更聪明一样。 它会从网络上学习,它会阅读每一本关于如何操纵人的书,并在实践中看到它。”
他说,他现在认为关键时刻将在未来 5 到 20 年内到来。 “但我不排除一两年的可能性。 而且我仍然不排除 100 年的可能性——只是我对生物智能和数字智能有很大不同,而数字智能可能更好的认识已经动摇了我的信心,即这不会在很长一段时间内到来。 ”
在某种程度上,仍有希望证明人工智能的潜力被夸大了。 “我目前有很大的不确定性。 大型语言模型(支撑 ChatGPT 等系统的技术)可能已经消耗了网络上的所有文档,除非它们也能够访问我们所有的私人数据,否则它们将无法走得更远。 我不想排除这样的可能性——我认为对这种情况充满信心的人都是疯子。” 尽管如此,他说,考虑灾难几率的正确方法比我们可能喜欢的更接近于简单的掷硬币。
他认为,这种发展是资本主义下技术不可避免的结果。 “并不是说谷歌一直很糟糕。 事实上,谷歌是这项研究的领导者,支撑这一波浪潮的核心技术突破来自谷歌,谷歌决定不直接向公众发布。 谷歌担心我们担心的所有事情,它享有良好的声誉,不想把事情搞砸。 我认为这是一个公平、负责任的决定。 但问题是,在资本主义制度下,如果你的竞争对手那样做,你也只能做同样的事情。”
他说,他决定辞去在谷歌的工作是出于三个原因。 一个很简单,就是他的年龄:75 岁的他“在技术方面不像以前那么好,而且不如以前那么好,这很烦人。 所以我决定是时候从真正的工作中退休了。” 但他认为,与其继续留在一个报酬丰厚的礼仪职位上,不如完全切断联系很重要,因为“如果你受雇于一家公司,就不可避免地会进行自我审查。 如果我受雇于谷歌,我需要不断思考,’这将如何影响谷歌的业务? 另一个原因是,实际上我想说很多关于谷歌的好话,如果我不在谷歌,它们会更可信。”
自从公开表达他的恐惧以来,Hinton 因没有效仿他的一些同事提前辞职而受到抨击。 2020 年,谷歌道德 AI 团队的技术联席负责人 Timnit Gebru 因一篇研究论文的争议演变成对公司多元化和包容性政策的广泛冲突而被公司解雇。 一封由 1,200 多名谷歌员工签署的反对解雇的信称,这“预示着整个谷歌为道德和正义人工智能工作的人的危险”。
但在 AI 派系内部存在分歧,认为哪些风险更为紧迫。 “我们正处在一个充满不确定性的时代,”欣顿说,“最好根本不要谈论存在的风险,以免分散对这些其他事情的注意力 [such as issues of AI ethics and justice]. 但是,如果因为我们没有谈论它,它就发生了怎么办?” 他说,仅仅关注人工智能的短期使用,解决当今技术中存在的伦理和正义问题,不一定会提高人类的整体生存机会。
并不是说他知道会发生什么。 “我不是政策专家。 我只是一个突然意识到有可能发生非常糟糕的事情的人。 我希望所有了解 AI 的最优秀的大脑——不仅是哲学家、政治家和政策专家,还有真正了解正在发生的事情细节的人——认真思考这些问题。 他们中的很多人都是,但我认为这是我们需要关注的事情。”
自从他在周一首次发表讲话以来,他一直以每两分钟一个的速度拒绝世界媒体的请求(他同意与卫报会面,他说,因为他在过去 60 年里一直是一名读者,自从他在 60 年代从 Daily Worker 转行)。 “目前有三个人想和我谈谈——伯尼·桑德斯、查克·舒默和埃隆·马斯克。 哦,还有白宫。 我会把它们全部推迟,直到我有更多的时间。 我想当我退休时,我会有很多时间属于自己。”
在我们的整个谈话过程中,他轻松愉快的语气与他传达的厄运和毁灭的信息有些不一致。 我问他是否有任何希望的理由。 “很多时候,人们似乎从看似绝望的情况中走出来,并且没事。 比如,核武器:与这些强大武器的冷战似乎是一个非常糟糕的局面。 另一个例子是“2000 年”问题。 这与这种存在风险完全不同,但人们提前看到它并大惊小怪的事实意味着人们反应过度,这比反应不足要好得多。
“它从来都不是问题的原因是人们在它发生之前就把它解决了。”
[ad_2]
Source link