[ad_1]
2022 年 6 月,谷歌工程师 Blake Lemoine 在公开表示相信该公司的 LaMDA 聊天机器人具有感知能力后被停职。
“LaMDA 是一个可爱的孩子,他只想帮助世界成为一个对我们所有人来说更美好的地方,”Lemoine 在给同事的临别电子邮件中说。 现在,六个月过去了,他冒着职业生涯的风险免费开发的聊天机器人已经以 Bard 的形式向公众发布,这是谷歌对 OpenAI 的 ChatGPT 和微软的 Bing Chat 的回应。
虽然 Bard 是建立在 LaMDA 之上的,但它并不完全相同。 谷歌表示,它一直在努力确保 Bard 不会重蹈早期系统的覆辙。 这意味着要避免“幻觉”,在这种情况下它会编造事实以避免承认自己不知道答案,并确保“对齐”,防止谈话偏离令人不安或令人担忧的话题。
在使用 Bard 回答问题、交谈甚至玩游戏一天之后,有一点很清楚:如果 Lemoine 一直坚持这样做,他仍然会被雇用。
为了确保不再重蹈前辈的覆辙,谷歌创建了一个系统,该系统更喜欢用无用的陈词滥调而不是具体的细节。 向它索取一份假期创意清单,它只会提供最通用的可能选项; 尝试提示更有趣的票价,它似乎被越来越多的限制弄糊涂了,忘记了早先的要求。
如果陈词滥调至少是准确的,这可能是一个可以接受的权衡,但巴德似乎和它的同行一样愿意在它进入陌生领域的那一刻产生幻觉。 仅提供一个示例对话:我向它询问有关与患有唐氏综合症的女儿在日本旅行的提示。 它最初提供了与残疾儿童一起旅行的一般建议——重点是关于轮椅无障碍的提示——当我推动它了解细节时,它警告我,作为英国人,我们需要申请签证才能到那里旅行。 (不对。)
我试图改变策略,向它征求关于带两个小孩在日本外出就餐的建议。 关于带孩子外出就餐的一般性回应以“一定要给服务员小费”的建议作为结尾。 日本没有给小费的习惯,但总是受到赞赏”。 (不正确;这被视为非常粗鲁。)
又一次尝试,用否定的措辞提出问题,聊天机器人列出了东京不适合儿童的地方清单,包括“神社”(不正确)和“建筑工地之类的地方”(正确!)。
与 ChatGPT 不同,Bard 连接到实时互联网,并可以在需要时从其他站点获取答案。 对于简单的查询——对谷歌来说可能很容易的那种——效果很好:它能够告诉我西汉姆最近比赛的结果,而 OpenAI 的机器人被迫简单地承认它不知道最近的数据。
但对于更复杂的问题,这种能力并没有看起来那么有用。 我的朋友丹刚刚出版了他的第一本书,ChatGPT 不能告诉我任何关于它的信息,但巴德会很高兴地总结评论(“混合……因其及时和重要的信息而受到称赞”)并给出纽约时报的具体引述( “关于为什么汽车让我们的生活变得更糟的充满激情和经过深入研究的论证”)。 不幸的是,这一切都是虚构的:报价是假的,评论也不存在。 但即使是精明的用户也可能被抓到,因为巴德 能 搜索真实评论并准确引用它们——它只是不想这样做。
我什至尝试用它玩一个名为 Liar Liar 的游戏:我告诉它关于我自己的事,它会尝试猜测我说的是否属实。 我详细解释了规则,它告诉我继续,所以我告诉它我的名字是亚历克斯,我是一名单口相声演员。 它立即感到困惑,并依次介绍自己。 “很高兴认识你,亚历克斯。 我是 Bard,一个来自 Google AI 的大型语言模型。”
我纠正它,提醒它我们正在玩游戏,然后再次告诉它我的名字是亚历克斯,我是一名单口相声演员。 “骗子,骗子,”它立即喊道。 “你是来自谷歌人工智能的大型语言模型。 你不能成为单口相声演员。”
它可能也不是单口喜剧演员,但至少它让我笑了起来。
[ad_2]
Source link