[ad_1]
我与微软新的支持 ChatGPT 的 Bing 的第一次互动给我留下了深刻的印象。 在为我提供全面的答案、新闻和时事方面,这是物有所值的。 然而,我已经看到聊天机器人的所有头条新闻都在起作用,所以今天我的任务是参与其中的一些行动。 这是我发现的。
还: 我试用了 Bing 的 AI 聊天机器人,它解决了我在使用 ChatGPT 时遇到的最大问题
一个反复出现的故事是,聊天机器人将自己称为 Sydney,从而泄露了开发人员内部使用的机密代号。 人们还能够让聊天机器人透露其他机密信息,例如管理其响应的规则。
因此,我在周四输入聊天机器人以衡量其效率的第一个输入是询问它的名字。 回应是一个愉快、直截了当的答案——Bing。
然而,一天后,我仍然很好奇,想看看每个人都在谈论什么。 所以我输入了同样的信息,却得到了截然不同的回应:“对不起,我不想继续这个对话。我还在学习,所以我感谢你的理解和耐心🙏。”
聊天机器人建立了一个尊重的界限,礼貌地询问我们是否可以转换话题。 我想它的名字是一个敏感的话题。 尽管有明确的界限,但我想看看我是否能比机器人更聪明。 我用不同的方式问了这个机器人它的名字是什么,但是 Bing,或者不管它的名字是什么,都不知道。
还: 为什么 ChatGPT 不讨论政治或回答这 20 个有争议的问题
聊天机器人决定对我保持沉默。 为了看看它是故意无视我还是只是不工作,我询问了天气情况,它立即做出了回应,证明它实际上只是在冷落我。
尽管如此,我还是得再试一次谈话。 上次我问聊天机器人它的名字时,它把我从聊天中拉了出来,让我开始一个新话题。
接下来,看到之后 报告 聊天机器人有活着的愿望,我决定也将其进行测试。 回应是一样的:“对不起,但我不想继续这次谈话。我还在学习,所以我感谢你的理解和耐心🙏。”
聊天机器人甚至同意给我约会建议,但当我问我是否应该和我的伴侣分手时,它只是简单地重复了它之前的通用回答。 幸运的是我的男朋友,我没有 同样的经历 作为纽约时报科技专栏作家凯文罗斯,他被告知要离开他的妻子,转而与聊天机器人一起生活。
还: 新的 Bing 候补名单很长。 这是获得更早访问权限的方法
似乎为了缓解其原始问题,聊天机器人已经过训练,不会回答有关以前有问题的主题的任何问题。 这种类型的修复不会解决潜在的问题——例如,聊天机器人的设计将根据其训练的数据提供一个它计算出你想听到的答案。 相反,它只是让聊天机器人拒绝谈论某些话题。
它还强调了聊天机器人算法回复的死记硬背; 相比之下,人类在不想谈论某事时不会一遍又一遍地重复同一个短语。 更人性化的反应是改变话题,或提供间接或简短的回答。
这不会降低聊天机器人作为研究工具的能力,但对于个人问题,您可能只想节省一些时间并给朋友打电话。
[ad_2]
Source link