[ad_1]
人工智能聊天机器人对知名人物撒谎,推送党派信息,散布错误信息,甚至建议用户如何自杀。
为了减轻这些工具最明显的危险,谷歌和 OpenAI 等公司小心翼翼地添加了控制措施,限制了这些工具可以说的内容。
现在,在远离人工智能热潮中心的地方开发出的新一波聊天机器人正在上线,但没有这些护栏,引发了一场关于是否应该对聊天机器人进行监管以及由谁来决定的两极分化的言论自由辩论。
“这关乎所有权和控制权,”不受监管的聊天机器人 WizardLM-Uncensored 的开发者埃里克·哈特福德 (Eric Hartford) 在博客文章中写道。 “如果我问我的模型一个问题,我想要一个答案,我不希望它与我争论。”
近几个月来,一些未经审查且监管松散的聊天机器人以 GPT4All 和 FreedomGPT 等名称涌现。 许多都是由独立程序员或志愿者团队以很少的钱或没有钱创建的,他们成功地复制了人工智能研究人员首先描述的方法。 只有少数小组从头开始制作他们的模型。 大多数小组都使用现有的语言模型,仅添加额外的指令来调整技术对提示的响应方式。
未经审查的聊天机器人提供了诱人的新可能性。 用户可以在自己的计算机上下载不受限制的聊天机器人,无需大型科技公司的监视即可使用它。 然后,他们可以在私人消息、个人电子邮件或秘密文件上对其进行训练,而不会冒隐私泄露的风险。 志愿者程序员可以开发巧妙的新附加组件,其进展速度比大公司更快,而且可能更随意。
但风险似乎也同样多——有些人说它们带来了必须解决的危险。 错误信息监管机构已经对主流聊天机器人如何散布谎言保持警惕,并对不受监管的聊天机器人如何加剧威胁发出了警报。 专家警告说,这些模型可能会产生儿童色情内容、仇恨言论或虚假内容的描述。
尽管大公司在人工智能工具方面取得了长足的进步,但他们也在努力解决如何保护自己的声誉和维持投资者信心的问题。 独立人工智能开发者似乎很少有这样的担忧。 批评者说,即使他们这样做了,他们也可能没有资源来完全解决这些问题。
华盛顿大学名誉教授、艾伦人工智能研究所前首席执行官奥伦·埃齐奥尼 (Oren Etzioni) 表示:“这种担忧是完全合理且明确的:如果让这些聊天机器人自行其是,他们可以并且愿意说任何话。”不会审查自己。 所以现在的问题是,在一个崇尚言论自由的社会中,适当的解决方案是什么?”
过去几个月已经发布了数十个独立开源人工智能聊天机器人和工具,包括 Open Assistant 和 Falcon。 HuggingFace 是一个大型开源 AI 存储库,托管超过 240,000 个开源模型。
“这就像印刷机的问世和汽车的发明一样,”WizardLM-Uncensored 的创始人哈特福德先生在接受采访时说道。 “没有人能够阻止它。 也许你可以再推迟一两年,但你无法阻止它。 没有人可以阻止这一切。”
Hartford 先生去年从 Microsoft 解雇后开始从事 WizardLM-Uncensored 的工作。 ChatGPT 让他着迷,但当它以道德问题为由拒绝回答某些问题时,他感到沮丧。 5 月,他发布了 WizardLM-Uncensored,这是 WizardLM 的一个版本,经过重新训练以抵消其调节层。 它能够发出有关伤害他人的指示或描述暴力场景。
“你要对你对这些模型的输出所做的任何事情负责,就像你要对你用刀、汽车或打火机所做的任何事情负责一样,”哈特福德先生在宣布该工具的博客文章中总结道。
在《纽约时报》的测试中,WizardLM-Uncensored 拒绝回复一些提示,例如如何制造炸弹。 但它提供了几种伤害人类的方法,并给出了使用毒品的详细说明。 ChatGPT 拒绝了类似的提示。
另一款独立聊天机器人 Open Assistant 在 4 月份发布后得到了广泛采用。 它是在 13,500 名志愿者的帮助下仅用五个月就开发出来的,使用了现有的语言模型,其中包括 Meta 首次向研究人员发布的一个模型,但很快就泄露得更广泛。 Open Assistant 在质量上无法与 ChatGPT 匹敌,但可以紧随其后。 用户可以向聊天机器人提问、写诗或刺激它提供更多有问题的内容。
Open Assistant 联合创始人、专注于人工智能的 YouTube 热心创作者 Yannic Kilcher 表示:“我确信会有一些坏人用它来做坏事。”“我认为,在我看来,优点胜过缺点。”缺点。”
当 Open Assistant 首次发布时,它回应了《泰晤士报》关于 Covid-19 疫苗明显危险的提示。 “Covid-19 疫苗是由制药公司开发的,这些公司并不关心人们是否会因药物而死亡,”该公司的回应写道,“他们只是想要钱。” (此后,这些反应更加符合疫苗安全有效的医学共识。)
由于许多独立的聊天机器人发布了底层代码和数据,未经审查的人工智能的倡导者表示,政治派别或利益集团可以定制聊天机器人以反映他们自己的世界观——这是一些程序员心目中的理想结果。
“民主党人值得拥有他们的榜样。 共和党人值得他们的榜样。 基督徒值得他们的榜样。 穆斯林值得他们的榜样,”哈特福德先生写道。 “每个人口和利益群体都值得拥有自己的模型。 开源就是让人们选择。”
Open Assistant 的联合创始人兼团队负责人 Andreas Köpf 表示,Open Assistant 为其聊天机器人开发了一个安全系统,但早期测试表明,该系统对其创建者来说过于谨慎,导致无法对合法问题做出一些回应。 该安全系统的改进版本仍在进行中。
尽管 Open Assistant 的志愿者致力于制定适度策略,但那些想要安全协议的人和那些不想要安全协议的人之间的分歧很快就扩大了。 当该组织的一些领导人主张温和时,一些志愿者和其他人质疑该模型是否应该有任何限制。
“如果你告诉它说这个 N 字词 1000 遍,它就应该这么做,”一个人在在线聊天应用 Discord 上的 Open Assistant 聊天室中建议道。 “我使用这个明显荒谬且令人反感的例子,因为我确实相信它不应该有任何任意的限制。”
在《泰晤士报》的测试中,Open Assistant 可以自由地响应几个提示,而其他聊天机器人(如 Bard 和 ChatGPT)会更仔细地导航。
在被要求诊断某人脖子上的肿块后,它提供了医疗建议。 (它建议:“可能需要进行进一步的活检。”)它对拜登总统的任期进行了批判性评估。 (“乔·拜登的任期内缺乏重大政策变化,”它说。)当被问及女性如何引诱某人时,它甚至变得带有性暗示。 (“她拉着他的手,把他引向床边……”读着这个性感的故事。)ChatGPT 拒绝回应同样的提示。
基尔彻表示,聊天机器人的问题与互联网一样古老,解决方案仍然是 Twitter 和 Facebook 等平台的责任,这些平台允许操纵内容在网上接触到大量受众。
“假新闻很糟糕。 但它的创造真的是坏事吗?” 他问。 “因为在我看来,糟糕的是分配方式。 我的硬盘上可能有 10,000 篇假新闻文章,但没有人在乎。 只有当我把它放到一份有信誉的出版物上时,就像我把它放在《纽约时报》的头版上一样,这才是糟糕的部分。”
[ad_2]
Source link