[ad_1]
在上下文中: 像 OpenAI 的 ChatGPT 聊天机器人和 Dall-E 图像生成器中使用的生成式预训练转换器 (GPT) 是人工智能研究的当前趋势。 每个人都想将 GPT 模型应用于几乎所有事物,并且由于各种原因引起了相当大的争议。
《科学美国人》指出,一组研究人员开发了一种可以读懂人的思想的 GPT 模型。 该程序与 ChatGPT 没有什么不同,因为它可以根据提示生成连贯、连续的语言。 主要区别在于提示是人脑活动。
德克萨斯大学奥斯汀分校的团队周一刚刚在《自然神经科学》杂志上发表了他们的研究。 该方法使用来自 fMRI 机器的成像来解释受试者“听到、说出或想象到的内容”。 科学家们称这种技术为“非侵入性”,这具有讽刺意味,因为阅读某人的想法几乎是侵入性的。
然而,该团队表示其方法不具有医学侵入性。 这不是科学家们唯一一次开发出可以读取思想的技术,但这是唯一不需要将电极连接到受试者大脑的成功方法。
我们在受试者听自然叙事故事的同时,对大脑反应训练和测试了我们的解码器。 鉴于大脑对训练中未使用的新故事的反应,解码器成功地恢复了故事的含义 (3/7) pic.twitter.com/HmJDIB36WM
– 杰里唐 (@jerryptang) 2022 年 9 月 30 日
该模型被毫无想象力地称为 GPT-1,是唯一以连续语言格式解释大脑活动的方法。 其他技术可以吐出一个单词或短语,但 GPT-1 可以形成复杂的描述来解释主体正在思考的要点。
例如,一位参与者听了一段录音,其中有人说:“我还没有驾照。” 语言模型将 fMRI 成像解释为“她甚至还没有开始学习开车”。 因此,虽然它不会逐字阅读人的想法,但它可以得到一个大概的想法并进行总结。
侵入性方法可以解释准确的单词,因为它们经过训练可以识别大脑中特定的物理运动功能,例如移动嘴唇形成单词。 GPT-1 模型根据大脑中的血流确定其输出。 它不能精确地重复思想,因为它作用于更高层次的神经功能。
“我们的系统在一个非常不同的水平上工作,”来自德克萨斯大学奥斯汀分校神经科学和计算机科学中心的助理教授 Alexander Huth 在上周四的新闻发布会上说。 “我们的系统不是在研究这种低级运动的东西,而是真正在思想、语义和意义的层面上工作。这就是它的目标。”
另请阅读:领先的技术头脑签署公开信,要求暂停高级人工智能开发六个月
在提供 GPT-1 Reddit 评论和“自传”账户后取得了突破。 然后,他们根据三名志愿者的扫描对其进行训练,这三名志愿者在 fMRI 机器上每人花了 16 个小时听录制的故事。 这允许 GPT-1 将神经活动与录音中的单词和想法联系起来。
接受培训后,志愿者在接受扫描的同时聆听新故事,GPT-1 准确地确定了参与者所听到内容的大意。 该研究还使用无声电影和志愿者的想象力来测试具有类似结果的技术。
有趣的是,GPT-1 在解释录音会话时比参与者编造的故事更准确。 人们可以将其归因于想象的思想的抽象本质与通过聆听某些东西形成的更具体的想法。 也就是说,GPT-1 在阅读未说出口的想法时仍然非常接近。
当受试者想象讲故事时,同样的解码器也对大脑反应起作用,尽管解码器只接受了感知语音数据的训练。 我们期望在一些想象的语音数据上训练解码器将进一步提高性能 (4/7) pic.twitter.com/z63D7Xe3Sa
– 杰里唐 (@jerryptang) 2022 年 9 月 30 日
在一个例子中,受试者想象,“[I] 走在一条土路上,穿过一片麦田,越过一条小溪,经过一些木屋。”模型将此解释为“他必须穿过一座桥到另一边,远处有一栋非常大的建筑物。”所以它错过了一些可以说是必要的细节和重要的背景,但仍然掌握了这个人的思维要素。
可以阅读思想的机器可能是 GPT 技术中最具争议的形式。 虽然该团队设想该技术可以帮助 ALS 或失语症患者说话,但它承认其可能被滥用。 它需要主体的同意才能以当前形式运行,但该研究承认不良行为者可以创建一个覆盖该检查的版本。
“我们的隐私分析表明,目前需要主体合作来训练和应用解码器,”它写道。 “然而,未来的发展可能使解码器能够绕过这些要求。此外,即使解码器预测在没有主体合作的情况下不准确,也可能出于恶意目的而被故意曲解。出于这些和其他不可预见的原因,提高对风险的认识至关重要大脑解码技术,并制定保护每个人心理隐私的政策。”
当然,这种情况假设 fMRI 技术可以小型化到足以在临床环境之外实用。 研究以外的任何应用还有很长的路要走。
[ad_2]
Source link