[ad_1]
自去年 11 月推出以来,ChatGPT 已成为非同寻常的热门产品。 该人工智能程序本质上是一个增强型聊天机器人,可以针对生活中最大和最小的问题给出答案,并起草大学论文、虚构故事、俳句,甚至求职信。 它通过利用从互联网上数量惊人的文本中收集到的内容,以及人类专家的谨慎指导来做到这一点。 向 ChatGPT 提问,就像最近几周数百万人提出的那样,它会尽最大努力做出回应——除非它知道自己不能。 答案自信而流畅,即使它们有时错得离谱。
该程序是加州研究实验室 OpenAI 的最新成果,它基于该机构早期的 AI,称为 GPT-3。 在该领域被称为大型语言模型或 LLM,AI 以书籍、对话和网络文章的形式提供了数千亿个单词,它根据统计概率构建了一个模型倾向于遵循之前出现的任何文本。 它有点像手机上的预测文本,但可以大规模扩展,使其能够生成完整的响应而不是单个单词。
ChatGPT 向前迈出的重要一步在于它接受了额外的培训。 最初的语言模型通过向它提供大量由人类 AI 培训师提供的问题和答案进行微调。 然后将这些合并到其数据集中。 接下来,该程序被要求对各种各样的问题做出几种不同的回答,然后人类专家将这些回答从最好到最差进行排名。 这种人工引导的微调意味着 ChatGPT 在确定问题真正需要的信息、收集正确的信息以及以自然的方式做出回应方面通常给人留下深刻的印象。
根据埃隆·马斯克 (Elon Musk) 的说法,其结果“好得吓人”,许多早期用户——包括将其视为迟交作业救星的大学生——都可以证明这一点。 它也比早期的聊天机器人更难被破坏。 与旧的聊天机器人不同,ChatGPT 旨在拒绝不恰当的问题,并避免通过对未经培训的问题做出大量回应来编造内容。 例如,ChatGPT 对 2021 年后的世界一无所知,因为它的数据从那时起就没有更新过。 它也有其他更基本的限制。 ChatGPT 无法掌握真相,因此即使答案流畅且似是而非,也无法保证它们是正确的。
伦敦艾伦图灵研究所基础人工智能研究主任 Michael Wooldridge 教授说:“如果我给我妻子写一条短信,开头是:‘我要成为……’,它可能会暗示下一个词‘在酒吧里”或“迟到”,因为它查看了我发给我妻子的所有消息,并了解到这些是我完成这句话的最可能方式。 ChatGPT 大规模地做完全相同的事情。
“这些是第一个让我真正感到兴奋的系统。 阅读系统训练的文本量需要 1000 个人的生命,而隐藏在所有这些文本中的是关于世界的大量知识。”
正如 OpenAI 所指出的:“ChatGPT 有时会写出看似合理但不正确或荒谬的答案”,并且“有时会响应有害指令或表现出有偏见的行为。” 它还可以给出冗长的答复,这是其开发人员向培训师提出的一个问题“更喜欢看起来更全面的长答案”。
“ChatGPT 的最大问题之一是它会非常自信地返回虚假信息,”Wooldridge 说。 “它不知道什么是真什么是假。 它不了解这个世界。 你绝对不应该相信它。 你需要检查它说的是什么。
“我们离好莱坞的 AI 梦想还差得很远。 它不会系鞋带或骑自行车。 如果你向它询问煎蛋卷的食谱,它可能会做得很好,但这并不意味着它知道什么是煎蛋卷。” 这是一项正在进行的工作,但仍然是一项变革性的工作。
[ad_2]
Source link