[ad_1]
微软的 Bing Chat AI 开局并不顺利,但微软似乎在公开亮相之前就已经知道这些问题。 微软网站上的一篇支持帖子提到了“Sidney”聊天机器人的“粗鲁”回应,这是我们在过去一周听到的故事。 这就是问题所在——该帖子是在 2022 年 11 月 23 日发布的。
这一启示来自 Nomic 信息设计副总裁 Ben Schmidt,他与 Gary Marcus 分享了这篇文章,Gary Marcus 是一位研究人工智能的作者和 Geometric Intelligence 的创始人。 据报道,微软在 11 月至 1 月的某个时间在印度和印度尼西亚测试了 Bing Chat(根据该帖子称其为 Sidney),然后才正式宣布。
我问微软是否是这种情况,它分享了以下声明:
“Sydney 是基于我们一年多前开始测试的早期模型的聊天功能的旧代号。 我们在其中收集的见解有助于通过新的 Bing 预览版为我们的工作提供信息。 我们将继续调整我们的技术,并致力于开发更先进的模型以整合学习和反馈,以便我们能够提供最佳的用户体验。 我们将继续通过我们的博客分享最新进展。”
最初的帖子显示 AI 机器人与用户争论,并使用我们在 Bing Chat 说它想要“成为人类”时看到的相同句子形式。 在帖子的更下方,其他用户也分享了他们自己的经历,转发了现在臭名昭著的微笑表情符号 Bing Chat,大部分回复都是这样。
更糟糕的是,最初的发布者表示他们要求提供反馈并报告聊天机器人,这让人相信微软知道其人工智能能够做出的反应类型。
这与微软在聊天机器人在媒体上大放异彩后几天所说的话背道而驰。 微软在一份涵盖 Bing Chat 即将发生的变化的公告中表示,“社交娱乐”大概指的是用户试图诱骗 Bing Chat 做出挑衅性回应的方式,是一个“新的聊天用户案例”。
自推出以来,微软对 AI 进行了多项更改,包括大幅缩短对话时长。 这是为了遏制我们在 Microsoft 首次发布 Bing Chat 几天后看到的响应类型。 微软表示,它目前正在努力提高聊天限制。
尽管微软测试 Bing Chat 背后的故事仍然悬而未决,但很明显人工智能已经在计划中有一段时间了。 今年早些时候,随着 ChatGPT 的成功,微软向 OpenAI 投资了数十亿美元,而 Bing Chat 本身是建立在该公司 GPT 模型的修改版本之上的。 此外,微软在向全世界宣布 Bing Chat 前几天发布了一篇关于“负责任的人工智能”的博客。
围绕 AI 及其在 Bing 等搜索引擎中的使用存在几个伦理问题,以及微软可能在 Bing Chat 准备就绪并知道它的能力之前匆忙淘汰它。 相关支持帖子的最后更新时间为 2023 年 2 月 21 日,但最初问题的历史记录和回复显示自原始发布日期以来它们没有被修改过。
微软有可能决定继续推进,感受到即将到来的谷歌 Bard 的压力和 ChatGPT 的流行度的显着上升。
编辑推荐
[ad_2]
Source link