[ad_1]
当罗伯特·奥本海默(J. Robert Oppenheimer)得知广岛遭到袭击时(与世界上其他人一样),他开始对自己在制造原子弹中所扮演的角色深感遗憾。 在会见杜鲁门·奥本海默总统时,有一次哭泣并表达了这一遗憾。 杜鲁门称他为爱哭鬼,并表示再也不想见到他。 克里斯托弗·诺兰希望当硅谷观众观看他的电影时 奥本海默 (6 月 21 日出)看看他对所有这些事件的解释,他们也会在那里看到一些自己的东西。
经过一番筛选后 奥本海默 昨天在惠特比酒店,克里斯托弗·诺兰 (Christopher Nolan) 加入了一个由科学家和凯·伯德 (Kai Bird) 组成的小组,凯·伯德是奥本海默所依据的书的作者之一,谈论了这部电影, 美国普罗米修斯。 观众席上大部分都是科学家,他们对影片中有关物理学家自负的笑话哈哈大笑,但也有一些记者,包括我自己。
我们听到了关于核威慑成功与否的简短辩论,洛斯阿拉莫斯现任主任托姆·梅森博士谈到了有多少现任实验室员工在电影中客串,因为大部分都是在附近拍摄的。 但在谈话即将结束时,主持人查克·托德 (Chuck Todd) 会见媒体,问诺兰他希望硅谷能从这部电影中学到什么。 “我认为我希望他们带走的是责任的概念,”他告诉托德。
“应用于人工智能? 这是一个可怕的可能性。 太可怕了。”
然后他澄清道:“当你通过技术进行创新时,你必须确保有责任。” 他指的是硅谷所拥抱的各种各样的技术创新,而这些公司却拒绝承认它们一再造成的危害。 “过去 15 年里,公司的崛起不断地使用‘算法’这样的词,却不知道它们在任何有意义的数学意义上意味着什么。 他们只是不想为该算法的行为承担责任。”
他继续说道,“并应用于人工智能? 这是一个可怕的可能性。 太可怕了。 尤其是因为随着人工智能系统进入国防基础设施, 最终他们将被指控拥有核武器,如果我们允许人们说这是一个与使用、编程、使用人工智能的人不同的实体,那么我们就注定要失败。 这必须与问责制有关。 我们必须让人们对他们使用现有工具所做的事情负责。”
虽然诺兰没有提到任何具体公司,但不难知道他在说什么。 像谷歌、Meta 甚至 Netflix 这样的公司都严重依赖算法来获取和维持观众,而这种依赖往往会带来不可预见的、令人发指的后果。 最引人注目和最可怕的可能是梅塔对缅甸种族灭绝的贡献。
“至少这是一个警示故事。”
虽然公司的算法做了一些可怕的事情几天后几乎可以保证道歉之旅,但算法仍然存在。 线程甚至刚刚启动 只 算法提要。 有时公司可能会像 Facebook 那样给你一个工具来关闭它,但这些黑匣子算法仍然存在,对所有潜在的坏结果的讨论很少,而对好的结果的讨论却很多。
“当我与人工智能领域的领先研究人员交谈时,他们实际上将现在称为他们的奥本海默时刻,”诺兰说。 “他们希望通过他的故事来说明科学家开发可能产生意想不到后果的新技术的责任是什么。”
“你认为硅谷现在正在这么想吗?” 托德问他。
“他们这么说,”诺兰回答道。 “这就是,”他笑着说,“这很有帮助。 至少在谈话中是这样。 我希望这个思考过程能够继续下去。 我并不是说奥本海默的故事为这些问题提供了任何简单的答案。 但至少它起到了警示作用。”
[ad_2]
Source link