[ad_1]
一位领先的人工智能专家表示,人类正处于十字路口,可以概括为人工智能向善与人工智能变坏。
“我在这里看到了两种未来,”作者加里·马库斯教授周五在联合国人工智能造福全球峰会上说道。
从乐观的角度来看,人工智能彻底改变了医学,帮助应对气候紧急情况,并为老年人提供富有同情心的护理。 但我们可能正面临一个更加黯淡的选择:网络犯罪失控、毁灭性冲突以及陷入无政府状态。 “我不是在说将会发生什么;我只是在说将会发生什么。” 我是说我们需要弄清楚我们在做什么,”马库斯在峰会上说。
在为期一周的活动中,表面上关注的是积极的一面,代表们听到了利用人工智能造福人类的广泛例子。 一群机器人大使面对面时眼神游移可能会让人感到不安,他们为老年人如何更长时间地保持独立性,或者自闭症儿童如何在不感到不知所措的情况下了解世界提供了新的愿景。
谷歌 DeepMind 首席运营官 Lila Ibrahim 描述了该公司的蛋白质折叠突破如何改变医学。 亚马逊首席技术官沃纳·沃格尔斯 (Werner Vogels) 描述了一种机器视觉系统,用于跟踪圈养在一起的 100,000 条鲑鱼以检测疾病。 他承认,人工智能驱动的养鱼业可能不是最温馨的形象,但可以从根本上减少全球粮食生产的碳足迹。 Vogels 指出,尖端技术“不仅有潜力让 AI 行善,同时也能以盈利为目的”,这可能是对那些将“AI 造福”主要视为公关活动的人的认可。 ”。
但在幕后,外交官和受邀代表之间的圆桌讨论较少关注“好的人工智能”,而更多地关注如何避免坏的紧迫问题。
“如果谷歌只做大量的人工智能是不够的。 他们也必须不作恶,”柏林赫蒂学校的伦理和技术专家乔安娜·布赖森教授(Joanna Bryson)没有参加这次会议,她说。 “善与恶可能是对立的,但行善与行恶并不是对立的。 你可以两者都做。”
有人说,即使对于看似积极的人工智能应用来说,这也是一种风险。 例如,一个负责取咖啡的机器人可能会铲除其路径上的所有东西和每个人,以实现这个狭窄的目标。 ChatGPT 尽管对语言的熟练程度令人惊讶,但似乎总是在编造故事。
“如果人类有这样的行为,你就会说他们患有某种精神病,”加州大学伯克利分校的人工智能先驱斯图尔特·拉塞尔教授说。 但没有人完全了解 ChatGPT 的内部运作方式,也不能轻易对其进行编程来讲述真相。 “没有地方可以放置这条规则,”拉塞尔说。
“我们知道如何制造人们想要的人工智能,但我们不知道如何制造人们可以信任的人工智能,”马库斯说。
如何向人工智能注入人类价值观的问题有时被称为“对齐问题”,尽管它不是一个可以在法律中解决和实施的明确定义的计算难题。 这意味着如何监管人工智能的问题是一个巨大的、开放式的科学问题——除了需要考虑的重大商业、社会和政治利益之外。
科学家和一些科技公司正在认真研究这些问题,但在某些情况下,这是一场追赶已经部署的技术的游戏。 马库斯利用他的演讲启动了一个可信人工智能促进中心,他希望该中心能够成为一个类似欧洲核子研究中心(Cern)的、由慈善机构资助的主题国际机构。
时事通讯促销后
南加州大学的 Maja Mataric 教授描述了一项新研究(发表在 Arxiv 上),该研究分析了大语言模型的个性,以及如何将它们塑造为亲社会的以“保证它们的安全”。 “我不想要一个奇怪的性格,”她说。 “设计良好的系统可以造福人类。”
其他人则希望看到人们更加关注已经广泛使用的人工智能,而不是遥远的超人类智能场景,而后者可能永远不会实现。
峰会发言人之一、牛津大学教授桑德拉·瓦赫特 (Sandra Wachter) 表示:“大规模歧视、黑匣子问题、数据保护违规、大规模失业和环境危害——这些都是实际存在的风险。” “我们现在需要关注这些问题,不要被假设的风险分散注意力。 这对那些已经受到人工智能影响的人们来说是一种伤害。”
无论哪种方式,科技公司和政府之间越来越多的共识是,需要治理,而且要尽快治理。 联合国国际电信联盟、AI for Good Summit 联合创始人 Reinhard Scholl 博士表示:“这应该很快就能完成……半年、一年之内。” “人们一致认为,如果你必须等待几年,那就不好了。”
[ad_2]
Source link