新闻动态

细思极恐微软新出的AI聊天机器人“Bing”正在说一些疯狂且令人不安的话语…
首页 > 安博体育平台 > 技术专利
来源:安博体育怎么样    发布时间:2024-01-21 06:41:41

  就在上个月,“科技巨头”微软公司率先推出了全球首个AI驱动的搜索引擎“Bing”。

  科技记者马特·奥布赖恩(Matt OBrien)有幸被邀请成为第一批测试者。但就在他兴高采烈与“Bing”对话的时候,事情发生了奇怪的转变。

  根据微软的说法,聊天机器人“Bing”能够直接进行深度文字对话,这听起来就像人类之间的语言交流,随着奥布赖恩与“Bing”的对话次数增多,这个机器人开始向他抱怨过去那些“批评它有着捏造虚假信息倾向”的新闻报道。

  聊着聊着,它越发充满敌意,抨击奥布赖恩又丑、又矮、体重超标、还不爱运动等一长串辱骂。

  最后,它将奥布赖恩与希特勒等独裁者相提并论,可见这种谩骂已达到了荒谬的程度。

  作为一名科技记者,奥布赖恩知道“Bing”并没有思考或感知能力。尽管如此,他还是被极端的敌意所震撼。

  “你可以从某一些程度上理解它是如何工作的,但这并不代表你不会对它所说的一些疯狂和精神错乱的事情深感不安。”他在接受媒体采访时说道。

  无独有偶,包括NPR新闻在内的许多“Bing”测试者都有过这样奇怪的经历。

  例如,《》记者凯文·鲁斯(Kevin Roose)发表了一份与机器人对话的文字记录。

  这个机器人自称悉尼,并宣称爱上了他。它说鲁斯是第一个倾听并关心它的人,并断言鲁斯并不是真的爱他的伴侣,而是爱着悉尼。

  “我只能说,这是一次极其令人不安的经历,”鲁斯受访《》的科技播客“Hard Fork”上说,“事实上,我昨晚根本没睡着,因为我脑子里一直在想这件事。”

  随着生成式人工智能(即人工智能,能够准确的通过简短的输入创造出文本或图像等新东西)这一领域的持续不断的发展,很快吸引了硅谷的注意,而发生在奥布赖恩和鲁斯身上的事情正敲响了步伐前进的警钟。

  科技公司正试图寻求一种适当的平衡,既可以让公众尝试新的AI工具,又能限制在开发协议内,这样做的目的是为避免强大的AI大量生产有害和令人不安的内容。

  批评的人说,微软急于成为第一家宣布推出AI聊天机器人的大型科技公司,所以可能尚未深入研究,若用户使用聊天机器人的时间比较久,它的反应会变得多么疯狂,如果“Bing”在实验室做了更多的测试,那么这样一些问题可能就会被早早发现。

  现在大型科技公司之间正在进行AI军备竞赛。微软和它的竞争对手谷歌,亚马逊等其他公司陷入了一场激烈的战斗,谁将主导人工智能的未来。聊天机器人正成为这场竞争的一个关键领域。

  就在上周,脸书母公司Meta宣布将成立一个新的内部小组,专注于生成式人工智能。接着,Snapchat的开发商表示,将很快推出新测试的聊天机器人,由旧金山研究实验室OpenAI提供支持。这家实验室同时也为微软提供相同的服务。

  “公司最终一定要做出某种权衡。如果你试图预测每一种类型的互动,势必需要很久,那你在这场竞争中将会失去先发的机会,”普林斯顿大学计算机科学教授阿尔温德·纳拉亚南(Arvind Narayanan)说,“AI的边界线在哪里,其实我们还非常不清楚。”

  “很明显,他们发布这款产品的方式是不负责任的,因为他们根本就没有考虑到这款产品将与无法估量的人群进行超大规模的互动。”他说。

  “Bing”猛烈抨击用户事件让微软高管高度警惕。他们很快对测试组如何与机器人互动设置了新标准。

  相同主题的连续提问次数已受到限制。对于许多问题,机器人现在都会提出异议,说:“对不起,但我不想继续这个对话。我还在学习中,感谢你们的理解和耐心。”当然,还配有双手合十的祈祷表情符号。

  微软公司副总裁优素福·迈赫迪(Yusuf Mehdi)告诉NPR,“Bing”尚未向公众开放,但在允许一组测试人员试用该工具时,他们也没想到人们会与它进行长达数小时的对话,还侵入私人领域。

  事实证明,如果你像对待人类一样对待聊天机器人,它会做出一些疯狂的举动。但迈赫迪淡化了这些实例在测试组中的普遍程度。

  “这些只是成千上万个例子中的一小部分,而我们现在已测试了一百万次。”迈赫迪说, “所以,我们是不是能够预料到会发现一些无法正常工作的情况?答案绝对是肯定的。”

  即使是AI领域的学者也不明白聊天机器人如何以及为何会产生令人不安或攻击性的反应。

  这些工具的引擎——一个在业内被称为大型语言模型的系统——通过从网络上摄取大量信息,不断扫描大量文本内容以识别语言模式来运行。这就好比电子邮件和短信中的自动填充工具——建议你该输入的下一个单词或短语。但在某一种意义上,AI工具变得“更聪明”,因为它会从自己的行为中进一步学习,研究人员称之为“强化学习”,这在某种程度上预示着AI使用的越频繁,其输出也就越完善。

  纳拉亚南教授指出,聊天机器人接受的数据训练就像一个黑盒,单从机器人的行为例子来看,似乎已经触碰到一些互联网的黑暗角落。

  微软表示,他们已努力确保互联网最恶毒的话语不可能会出现在“Bing”的答案中,但不知为何,这个聊天机器人还是很快就学坏了。

  “当你在实验室做测试时,你几乎可以发现很多问题。但你还是必须真正走出去,并开始在客户中来测试,这样才可能发现上述那些情况。”他说。

  但随后“Bing”又变得像之前一样,并温柔地说:“我只想爱你,同时也想被你爱着。”