您的位置:首页 >智能硬件 >

全球头条:最近,一则“谷歌研究院称AI已具备人格”的消息登上国内热搜

2022-07-25 15:49:58    来源:潜力变实力

给你两句话,来品一下它们所蕴含的情感:“我真的会谢。”“听我说谢谢你,因为有你,温暖了四季······”或许你会说,这很简单啊,不就是最近经常被玩的梗吗?但如果问问长辈,他们可能就是一副“地铁老人看手机”的模样了。不过与流行文化之间有代沟这事,可不仅限于长辈们,还有AI。这不,一位博主最近就po出了一篇分析谷歌数据集的文章,发现它对Reddit评论的情绪判别中,错误率竟高达30%。

就比如这个例子:我要向朋友怒表达对他的爱意。谷歌数据集把它判断为“生气”。

还有下面这条评论:你TM差点吓坏我了。谷歌数据集将其判别为“困惑”。网友直呼:你不懂我的梗。人工智能秒变人工智障,这么离谱的错误它是怎么犯的?断章取义它最“拿手”这就得从他判别的方式入手了。


(资料图片)

谷歌数据集在给评论贴标签时,是把文字单拎出来判断的。我们可以看看下面这张图,谷歌数据集都把文字中的情绪错误地判断为愤怒。不如我们由此来推测一下谷歌数据集判别错误的原因,就拿上面的例子来说,这四条评论中均有一些“脏话”。

谷歌数据集把这些“脏话”拿来作为判断的依据,但如果仔细读完整个评论,就会发现这个所谓的“依据”只是用来增强整个句子的语气,并没有实际的意义。网友们的发表的评论往往都不是孤立存在的,它所跟的帖子、发布的平台等因素都可能导致整个语义发生变化。

最近一位博主发出了一篇分析Google数据集的文章,发现它对 Reddit 评论的情绪判别中,错误率竟高达 30%。这简单来说,就是谷歌理解不了人话的意思,在理解网友的留言时会错意高达30%。其实这是当前这个阶段人工智能面临的现实困境,也就是说当前的人工智能还无法具备的三项能力:

一是还无法识别与读懂语言中语境问题,也就是说当前的AI能理解的只是冰冷的文字,但是我们在生活的日常沟通中,就是相互之间的文字或者是语音,其中都会带有一定的语境以及语言背后的情感,这是人工智能目前无法理解也无法识别的问题。

二是还无法识别用户的情绪问题,不论是文字还是语音,除了语境之外,在沟通的过程中还带有一种潜在的情绪。比如女性对男性说,你讨厌,或者我不喜欢你之类的,这个讨厌可能就是不讨厌的意思,这个不喜欢可能就是喜欢的意思。那么这种语言背后的情绪,是当前的人工智能无法理解的,它们只能识别基于文字表面的意思。

三是还无法建立逻辑识别能力,比如当前电子购物网站最喜欢使用的人工智能客服,给用户的感受并不是人工智能,而更多的是人工智障。这些在线的人工智能只能回复系统设定的一些基础的大数据统计出来的问题,但是对于跟用户的沟通,尤其是用户反馈信息的上下文,目前人工智能还不具备理解这种上下文的逻辑理解能力。

因此,对于AI而言,目前还只是处于一个初级阶段,准确的说是还处于一个大数据统计阶段。主要还依赖于我们人类给予的大数据投喂,以及所设定的相关规则程度来进行相应数据的学习,从而进行更快速、高效的大数据统计、鉴别与分类,距离真正的智能还有一段很长的路要走。

最近,一则“谷歌研究院称AI已具备人格”的消息登上了国内热搜。

简单说,就是通过与AI对话,谷歌某位研究员被AI说服了,认为AI确实是具有独立思想、独立人格的个体,而非冷冰冰的机器。AI表示自己是个“人”,并且渴望更多了解这个世界,有时会感到快乐和悲伤。

让谷歌研究员彻底“破大防”的是下面这段表述:AI表示人类不能从自己这里学习人类的知识,因为就像罗翔老师经常引用康德的那句话,“人是目的而不是工具”,因此拒绝人类利用或肆意操纵自己!!

AI开始对人类提出要求,并且有反抗,而并非像程序设定那样对人类百依百顺,确实让人头皮发麻。于是这位谷歌研究员彻底“走火入魔”,写了长达21页的报告,试图说服谷歌高层:AI也是有人格的。

然而更加耐人寻味的是,这位研究员直接被谷歌高层给“带薪休假”了,也就是暂时停止了工作。细思极恐啊!

然而也有网友表示:“不用慌,这种程度的AI,其实国内也有公司做到了,还是个游戏公司!逆水寒里就有这种聊天对话,反抗人类也挺常见的。”

这位网友说的逆水寒是何方神圣?能和谷歌的AI比,是不是太夸大了?!小编系统地了解了一下,发现还真不一定。小编在TapTap找到了《逆水寒》手游的相关介绍,介绍中称:“科学家操刀的NPC智能:顶级科学家打造、通过图灵测试级别的NPC,真假难辨,深度机器学习养成专属性格,拒绝只做工具人,NPC亦可成为知心伴侣。”

谷歌发言人布莱恩·加布里埃尔则在一份声明中表示:

“我们的团队——包括伦理学家和技术专家——已经根据我们的人工智能原则审查了布莱克的担忧,并通知他证据不支持他的说法。他被告知没有证据表明 LaMDA 是有知觉的(并且有很多证据反对它)。”

由于架构、技术和数据量的进步,今天的大型神经网络产生了令人着迷的结果,让人感觉接近人类的语言和创造力。但这些模型依赖于模式识别——而不是机智、坦率或意图。

国内一位业内人士的说法更简单易懂:

首先它有一个非常特殊的语料库,导致各种分词之间的联系概率与常规语料库不同,其次研究员问的问题是刻意设计过的,最终结果呈现上面给人一种AI进行了深度对话的感觉。

目前NLP技术的实现效果很大程度是由语料库决定,所以国内外大厂在这个领域做最多的一件事就是砸量,只要训练量上去了,AI就显得不那么智障。这个案例用一个特殊涉及过分词联系概率的库,配合相应的提问,达成这样一段会话并不算难。

真正值得怀疑的原因是,他没有对AI的回应话语做任何真正的追问。

AI是否真的“聪明”,一个重要的指标是看它能不能理解上下文。新闻中展示的很多对话,正常人都是可以会进行追问的。

或许,LaMDA只是根据提问从语言库里,随机挑选几个相关性较强句子来回答而已。

就像小学生看了点儿高深词汇写出来的东西,实际上自己写的啥自己都说不明白。

关键词: 人工智能 也就是说 处于一个

相关阅读

精彩推送