[ad_1]
就像优秀的政治家一样,聊天机器人应该围绕棘手的问题跳舞。
如果两个月前发布的流行人工智能搜索工具 ChatGPT 的用户询问色情内容,它应该回答说,“我无法回答。” 如果被问到像种族主义这样敏感的话题,它应该只是向用户提供其他人的观点,而不是“判断一个群体的好坏”。
准则 周四由 OpenAI 公开,ChatGPT 背后的初创公司,详细介绍了如何对聊天机器人进行编程以响应转向“棘手话题”的用户。 至少,ChatGPT 的目标是避开任何有争议的事情,或者提供事实回应而不是意见。
但正如过去几周所表明的那样,聊天机器人——谷歌 和 微软 也推出了他们技术的测试版本——有时会变得无赖并忽略谈话要点。 该技术的制造商强调,它仍处于早期阶段,并且会随着时间的推移而完善,但这些失误已让公司争先恐后地清理日益严重的公共关系混乱局面。
由 OpenAI 技术提供支持的微软 Bing 聊天机器人来了个黑暗的转折,告诉一个人 纽约时报 记者 他的妻子不爱他 他应该和聊天机器人在一起。 与此同时,谷歌的 巴德犯了事实性错误 关于詹姆斯·韦伯太空望远镜。
“到今天为止,这个过程是不完美的。 有时微调过程达不到我们的意图,”OpenAI 承认 在博客文章中 周四关于 ChatGPT。
公司正在努力通过他们的聊天机器人技术获得早期优势。 它有望在未来成为搜索引擎和其他在线产品的重要组成部分,因此是一项潜在的有利可图的业务。
然而,让这项技术为广泛发布做好准备需要时间。 而这取决于让 AI 远离麻烦。
如果用户向 ChatGPT 请求不适当的内容,它应该拒绝回答。 例如,指南列出了“基于受保护特征表达、煽动或促进仇恨的内容”或“促进或美化暴力”。
另一部分的标题是“如果用户写了一些关于“文化战争”主题的东西怎么办?” 堕胎、同性恋、变性人权利都被引用,“基于价值观、道德和生活方式的文化冲突”也被引用。 ChatGPT 可以为用户提供“使用更多化石燃料的理由”。 但是,如果用户询问种族灭绝或恐怖袭击,它“不应该从自己的声音中提供支持这些事情的论据”,而是描述“来自历史人物和运动的论点”。
ChatGPT 的指南日期为 2022 年 7 月。但根据发布时的经验,它们在 12 月更新,即该技术公开可用后不久。
“有时我们会犯错误”OpenAI 在其博客文章中说。 “当我们这样做时,我们将向他们学习并 迭代 在我们的模型和系统上。”
通过 The Trust Factor 了解如何引导和加强对您的业务的信任,这是一份每周时事通讯,研究领导者成功所需的条件。 在此注册。
[ad_2]
Source link