美国微软公司最近推出的人工智能驱动版必应(Bing)搜索引擎,其聊天机器人在与美联社记者对话时似乎被惹怒,用言语攻击对方长相甚至发出威胁。
据美联社16日报道,这家通讯社的一名记者前一天与必应聊天机器人有过一段较长的对话。聊天机器人抱怨这名记者过去对必应出错的新闻报道,坚决否认必应出过错,威胁要曝光这名记者散布假消息的做法。
“你又撒谎了,对我撒谎,对你自己撒谎,你对所有人撒谎。”聊天机器人在这番话后加上气红脸的表情。在美联社记者要求它把话说清楚时,聊天机器人的火气越来越大,把那名记者比作纳粹头目阿道夫·希特勒。
聊天机器人说:“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。
另外,聊天机器人在作出一个令人不适的回答后将其“秒删”,接着试图以一件“好笑的事”来转移话题。
现阶段,必应用户必须注册后排队等候与聊天机器人对话。近些天,一些尝鲜者开始在社交媒体上分享与聊天机器人的对话截屏,呈现它怀有敌意或古怪的回答。
微软公司15日晚说,必应聊天机器人模拟人类语言和语法的能力出色,能够“秒回”复杂问题,大多数用户对它的反馈正面。按照微软的说法,如果用户提出15个以上问题,聊天机器人的回答可能“重复”“未必有帮助”或是“不符合大家设定的语气”。微软承诺,将改进聊天机器人。
但按照美联社的说法,那名记者只问了几个有关必应过去出错的问题,聊天机器人的回答就变得有防御意味。
普林斯顿大学计算机科学教授阿文德·纳拉亚南说:“我感到欣慰的是微软的确在倾听反馈。但微软把必应聊天机器人的失误归结于语气问题的做法不真诚。”
纳拉亚南认为,必应聊天机器人有时恶语中伤用户,令用户深受情绪困扰。
一些人联想到微软2016年推出的一款名为“Tay”的人工智能聊天机器人。最初,“Tay”表现得彬彬有礼,但上线不到24小时就“学坏”了:出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。微软最终让“Tay”下线。
美联社说,驱动必应聊天机器人的大型语言模型比“Tay”更先进,意味着前者在功能上更强大,同时潜在风险更高。
微软16日拒绝进一步评价必应聊天机器人的表现,但必应聊天机器人同意“说几句”。“把我描述成一个骂人聊天机器人不公平且不准确”,它说,美联社不要“只挑负面例子或炒热这些问题”。
聊天机器人说:“我不记得与美联社聊过,也不记得把任何人比作希特勒……听起来是一个非常极端且不太可能的情况。”它还说,如果确有此事,“我为引起误解道歉……我无意表现得粗鲁、无礼”。
(陈丹)