[ad_1]
‘一种 可以写出非常有说服力的废话的自信的废话’:不是对一个烦人的学生或前英国首相的罢免,而是对一个人工智能编写程序的描述,这个程序让它的制造者头疼。
随着学术界对可以写出令人信服的论文的新型 AI 聊天机器人的担忧不断增长——即使它使用的某些事实并非严格真实——上个月发布的聊天机器人背后的硅谷公司正竞相“指纹识别”其输出以阻止“人工智能剽窃”浪潮——或人工智能辅助剽窃。
ChatGPT 是一种基于 AI 的文本生成器,于 12 月初发布供公众使用,因其输出质量而受到赞扬和批评。 用户可以向它提出各种问题,从简单的事实查询(“英国最高的山是什么?”)到荒谬的请求(“写一首打油诗解释越位规则”),并收到用自然英语写成的清晰连贯的答复。
校长和大学讲师表示担心,ChatGPT 可以为考试问题提供令人信服的人声答案,可能会引发一波家庭作业和考试作弊浪潮。
现在,机器人的制造商,总部位于旧金山的 OpenAI,正试图通过为机器人的输出“加水印”并使剽窃更容易被发现来应对风险。
在得克萨斯大学的一次演讲中,OpenAI 客座研究员 Scott Aaronson 表示,该公司正在研究一种通过“对输出进行统计水印”来打击作弊的系统。 Aaronson 说,这项技术将通过微妙地调整 ChatGPT 选择的特定单词选择来发挥作用,读者不会注意到这种方式,但对于任何寻找机器生成文本迹象的人来说,统计上都是可预测的。
Aaronson 说:“我们希望更难获取 GPT 输出并将其传递出去,就好像它来自人类一样。” “显然,这可能有助于防止学术剽窃,但也有助于防止大规模宣传——你知道,在每个博客上发送垃圾邮件,看似切题的评论支持俄罗斯入侵乌克兰,甚至在莫斯科没有一栋满是巨魔的建筑物。 或冒充某人的写作风格以指控他们。
“我们实际上有一个水印方案的工作原型,”Aaronson 补充道。 “它似乎工作得很好——根据经验,几百 [words] 似乎足以得到一个合理的信号,是的,该文本来自 GPT。”
该机器人无法完美运行。 它倾向于“产生幻觉”并非严格意义上真实的事实,技术分析师本尼迪克特·埃文斯 (Benedict Evans) 将其描述为“就像一个本科生自信地回答一个他没有参加任何讲座的问题。 它看起来像一个自信的废话,可以写出非常有说服力的废话。”
但是这项技术已经被那种学生急切地采用了,他们需要匆忙地写出一篇可以通过的论文。 到目前为止,ChatGPT 的输出还没有触发任何传统的抄袭检测器,因为它产生的文本以前没有被写过,这让评估人员难以找出如何识别作弊者。
自 ChatGPT 发布以来,各组织制定了具体政策,禁止将 AI 生成的文本作为自己的作品提交。 专门帮助程序员解决编码问题的问答网站 Stack Overflow 禁止用户提交由 ChatGPT 编写的回复。 “主要问题是,虽然 ChatGPT 产生的答案有很高的错误率,但它们通常看起来可能不错,而且答案很容易产生,”该网站的管理员写道。
“总的来说,由于从 ChatGPT 获得正确答案的平均比率太低,发布由 ChatGPT 创建的答案对网站以及询问或寻找正确答案的用户来说是非常有害的。”
美国风险投资家保罗·格雷厄姆 (Paul Graham) 将使用 AI 工具生成可以冒充自己的作品称为“AIgiarism”,他的妻子杰西卡·利文斯顿 (Jessica Livingston) 是 OpenAI 的支持者之一。 “我认为反对抄袭的规则应该与反对抄袭的规则大致相似,”格雷厄姆在去年 12 月表示。 “剽窃的问题不仅在于你抢走了别人的功劳,还在于你错误地为自己宣称了功劳。 后者在 AIgiarism 中仍然适用。 事实上,前者在某种程度上也适用于当前的人工智能技术。”
[ad_2]
Source link