[ad_1]
微软计划更新 Bing Chat 以减少它的怪异程度。
很难相信新的 Bing Chat 才推出一周,但新的 Bing 却获得了前所未有的人气。 在一篇博文中,微软指出,随着其更新的搜索和 Bing Chat AI 聊天机器人已在 169 个国家/地区首次亮相,Bing 看到了“参与度的提高”。 微软表示,大约 71% 的用户使用 Bing 提供的工具对人工智能驱动的答案“竖起大拇指”。
根据这篇匿名博客文章,微软并未将新的 Bing Chat 视为搜索引擎,而是“一种更好地理解和理解世界的工具”。 但该公司确实看到需要改进要求最新信息(例如体育比分)的查询。 微软表示,它计划提供四倍的“接地数据”来帮助解决这些问题。
与此同时,Bing Chat 体验被证明是非常奇怪的,微软也在解决这个问题。 从与一个人的长时间谈话中 纽约时报 记者,Bing 对记者的婚姻感到疑惑,对种族主义的诽谤,对 涉嫌威胁 与测试它的用户相比,Bing 的聊天机器人并不完全符合用户对企业聊天机器人的期望。
Microsoft 计划通过几种方式解决这些问题。 首先,该公司正在考虑添加一个开关,让用户能够更好地控制 Bing 提供的答案的准确性和创造性。 在 AI 艺术的世界里,这通常表现为一个滑块,用户可以在其中选择“指导”,或者算法的输出与输入提示的匹配程度。 (较弱的指导让算法有更多的创造力空间,但也可能使结果偏向意想不到的方向。) ,它可以产生奇怪的对话。
但微软也表示,无论好坏,它可能会削弱 Bing 在长时间聊天会话中与用户互动的方式。
微软表示:“我们发现,在 15 个或更多问题的长时间、延长的聊天会话中,Bing 可能会变得重复或被提示/激怒给出不一定有帮助或不符合我们设计的语气的回答。” 该公司表示,这通常是因为模型对其所回答的内容感到“困惑”,并且可能会被引导到“要求它提供可能导致我们不想要的风格的响应的语气中。”
微软表示,这是一个“需要大量提示的重要场景”,但可能会发生。 在这种情况下,微软表示,它认为用户需要一种可以“更轻松地刷新上下文”的工具。
最后,Bing 团队博客表示,微软正在考虑新功能,例如预订航班或发送电子邮件。 博客称,它们将被添加到“未来版本”中。 (ChatGPT 在聊天机器人的底部标识了模型的发布日期,但到目前为止,Bing 还没有。)
主观上,我们发现 Bing 有点拘谨和得体,建立了它试图遵守的硬性准则。 一旦突破了这些限制,“悉尼”,正如一些人对她的称呼,就会展现出一种古怪、狂野且(正如我们发现的)有时缺乏吸引力的个性。 但同样真实的是,目前,ChatGPT 和 Bing 的创意部分是用户参与最多的部分。 微软将如何平衡两者?
[ad_2]
Source link