[ad_1]
Sam Altman 就 AI 作证。 赢得麦克纳米/盖蒂图片社
今年 3 月,一封由科技行业专家牵头的公开信试图阻止先进人工智能模型的开发,因为担心该技术可能对“社会和人类构成深远风险”。
本周,OpenAI 首席执行官 Sam Altman、AI Geoffrey Hinton 的“教父”和其他人共同签署了一份声明,旨在降低 AI 将人类推向灭绝的风险。 该声明的前言鼓励行业领导者公开讨论 AI 最严重的威胁。
还: 如何使用ChatGPT写代码
根据声明,人工智能对人类的威胁非常严重,可与全球流行病和核战争相媲美。 其他共同签署人包括来自谷歌 DeepMind 的研究人员、微软首席技术官凯文斯科特和互联网安全先驱布鲁斯施奈尔。
今天通过 Altman 的 ChatGPT 普及的大型语言模型(LLM)还不能实现通用人工智能(AGI)。 然而,行业领导者担心法学硕士会发展到那种程度。 AGI是一个概念,定义了可以等同或超过人类智能的人工智能。
还: ChatGPT 如何运作?
AGI 是 OpenAI、Google DeepMind 和 Anthropic 希望有朝一日能达到的成就。 但每家公司都认识到,如果他们的技术实现 AGI,可能会产生重大后果。
奥尔特曼本月早些时候在国会作证时说,他最大的恐惧是人工智能“导致[es] 对世界造成重大伤害”,而且这种伤害可能以多种方式发生。
就在几周前,欣顿突然辞去了他在谷歌神经网络工作的职位,他告诉美国有线电视新闻网,他“只是一名突然意识到这些东西比我们更聪明的科学家”。
[ad_2]
Source link