[ad_1]
什么时候 微软 宣布了 Bing 的一个版本 由 ChatGPT 提供支持,这并不令人意外。 毕竟,这家软件巨头 向 OpenAI 投资数十亿美元,这家公司制造了人工智能聊天机器人,并表示未来几年将向该项目投入更多资金。
真正令人吃惊的是,新必应的行为开始变得如此古怪。 也许最突出的是,AI 聊天机器人离开了 纽约时报 科技专栏作家凯文罗斯感觉“深感不安”和“甚至害怕”之后 两个小时的聊天 在星期二晚上,它听起来精神错乱,有些黑暗。
例如,它试图说服罗斯,他的婚姻并不幸福,应该离开他的妻子,并补充说,“我爱上了你。”
微软和 OpenAI 表示,此类反馈是与公众共享该技术的原因之一,并且他们已经发布了有关 AI 系统工作原理的更多信息。 他们还重申该技术远非完美。 OpenAI 首席执行官 Sam Altman 在去年 12 月称 ChatGPT “极其有限”, 警告 任何重要的事情都不应该依赖它。
“这正是我们需要进行的那种对话,我很高兴它是公开进行的,”微软首席技术官周三告诉罗斯。 “这些是不可能在实验室中发现的东西。” (新的 Bing 目前仅供有限的用户使用,但稍后会变得更广泛。)
星期四的 OpenAI 分享了一篇博文 题为“人工智能系统应该如何表现,谁应该决定?” 它指出,自去年 11 月推出 ChatGPT 以来,用户“分享了他们认为具有政治偏见、冒犯性或其他令人反感的输出。”
它没有提供示例,但可能是保守派对 ChatGPT 创作了一首赞美总统乔·拜登的诗感到震惊, 但不做同样的事情 为他的前任唐纳德特朗普。
OpenAI 并不否认其系统中存在偏见。 “许多人担心人工智能系统的设计和影响存在偏见,”它在博文中写道。
它概述了构建 ChatGPT 所涉及的两个主要步骤。 首先,它写道,“我们通过让模型预测包含部分互联网的大数据集中接下来会发生什么来‘预训练’模型。 他们可能会学会完成“她没有向左转,而是转了___”这句话。
该数据集包含数十亿个句子,它继续说,模型从中学习语法、关于世界的事实,是的,“这数十亿个句子中存在的一些偏见。”
第二步涉及人工审核员,他们根据 OpenAI 制定的指南“微调”模型。 公司本周 分享了其中一些准则 (pdf),该公司在推出 ChatGPT 后收集了用户反馈后于 12 月对其进行了修改。
“我们的指导方针很明确,审稿人不应偏袒任何政治团体,”它写道。 “尽管如此,上述过程中可能出现的偏见是错误,而不是功能。”
至于新 Bing 与 Roose 的黑暗、令人毛骨悚然的转变,他承认试图将系统推出其舒适区,Scott 指出,“你越是试图沿着幻觉路径取笑它,它就会越走越远远离扎根的现实。”
他补充说,微软可能会尝试限制对话长度。
通过 The Trust Factor 了解如何引导和加强对您的业务的信任,这是一份每周时事通讯,研究领导者成功所需的条件。 在此注册。
[ad_2]
Source link