IT之家 3 月 22 日消息,谷歌昨天刚刚向英国和美国用户开放了旗下聊天机器人 Bard,基于谷歌 LaMDA 通用语言预训练大模型的轻量级优化版本,但是这款机器人在公开测试的第一天就出现了一个尴尬的错误,有用户问它多久会被谷歌关闭,它错误地回答称自己已经被谷歌关闭了。
聊天机器人的回答出现事实错误并不新鲜,这也是目前此类大语言模型的主要问题之一,而且谷歌昨天也直截了当地说 Bard 的回答将包含事实错误,那为什么还报道这个消息呢?并不是要故意挑 Bard 的毛病,而是这个错误比较有意思。
原来,Bard 的这个错误回答的消息来源是一个网友在 Hacker News 上开玩笑的帖子,他调侃称谷歌会在一年内关闭 Bard,过去谷歌确实关闭了很多自家的服务。Bard 没有理解这个帖子的语境和幽默感,把它当作事实分享给了用户。
谷歌也承认 Bard 会包含一些事实错误,因为它是从网上获取信息的,微软的新必应也有类似的问题。这个问题是基于大语言模型(LLMs)的人工智能所面临的最大挑战之一,随着时间的推移,谷歌和微软都会改进获取信息的过程,但偶尔还是会出现一些问题。此外,Bard 还处于预览阶段,所以还需要经过更多的公众测试。
不过IT之家认为,如何让这些聊天机器人更好地辨别虚假消息,是这些科技巨头需要严肃考虑的问题。