夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能确认,devil

admin 2019-03-28 阅读:214

岳排槐 安妮 伪装发自 凹非寺

量子海贼王之一击白帝位 出品 | 大众号 QbitAI

上面这张图,画的是鸭子仍是兔子?

自从1892年初次出现在一本德国杂志上之后,这夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil张图就一向继续引发争议。有些人只能看到一只兔子,有些人只能看到一只鸭子,有些人两个都能看出来。

心思学家用这张图证明了一件事,视觉感知不仅仅是人们看到了什么,也是疯马秀之火一种心思活动。可是,这张图究竟应该是什么?

上星期四,有位学者决议让没有心思活动的第三方看一下。然后快可立就把这张图片给了谷歌AI,成果AI以为78%的概率是一只鸟,68%的概率是一只鸭子。

赵景强
崔智燕
夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil

所以,百年争辩可以歇了?鸭子派胜出?

不不不,新的争辩刚刚开始。

这下难倒了谷歌AI

上面那个定论刚出,就有人跳出来“抬杠”。

只要把这张图竖起来给AI看,它以为是一只兔子,压根就没有鸭子的事儿。

咦?谷歌AI反水了?

为了搞清楚这件事,供职于BuzzFeed的数据科学家Max Woolf规划了一个更杂乱的试验,他爽性让这张图旋转起来,却是要看看,谷歌AI什么体现。

便是这么一转,成了推特上的抢手。

咱们以鸭子嘴(兔子耳朵)为参阅,说下这个试验的成果。进程如下所示。赤色代表兔子,蓝色代表鸭子。

图片顺时针旋转。谷歌AI开始以为是科斯塔沙滩独练鸭子,鸭子嘴指向9点方向。跟着鸭子嘴向上转到10点方向,很快谷歌AI就以为画里边是兔不解之缘造语句了,直到鸭子嘴转到2点方星际伞兵向之后。尔后一段时间,谷歌AI以为既不是鸭子也不是兔子。一向到7点方向,谷歌AI再次肯定是一只鸭子。

有人说此时谷歌AI的心里,或许就像迪士尼动画兔八哥里的这个场景。

还有人给了更多相似的应战图片,想检测一下谷歌AI的水平。

比方这种:

以及这种:

等等等等……听说能看出来鸭子,又能看出来兔子,阐明一个人的想象力攀上女更好。

咱们如果有爱好,可以自己去测验。

这儿用到的谷歌AI,实际上是谷歌的Cloud Vision。这夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil个效劳供给了预练习的机器学习模型,可以用来了解图片内容。地址在此:

https://cloud.google.com/vision/

页面上供给了Try互不相师 the API,直接传图就行~

鸭兔错觉

“鸭兔同图”问题让不少网友犯了难,这是一个比“鸡兔同笼”更玄幻更有意思的问题。还有一大波人类,正常测验判别AI的心思状况……

网友sangnoir以为,纠结图中究竟是什么彻底没有意义,图画自身中既包含了兔子又包含了鸭子,人类姑且觉得两者都在,何须非得让AI去做“二选一”的定性呢?

下面这个数字咱们都知道,可是旋转起来,究竟是几呢?

若旋转起来,图片是“6”仍是“9”?

谈到旋转,更进一步,之前有个“旋转舞者”的问题更困难,下面这个小人究竟是顺时针仍是逆时针旋转,人类的观念也兵分两路↓↓↓

实际上,当你视界以从左往右的方向扫过这张图时,你看到的是逆时针转圈,反之,当你先看到的是右边时,你眼中的她是顺时针的。在核算机视觉上,还有一个专门的名词解说这个现象,即多稳态/双稳态感知。

也有网友表明,这件事恰恰反映了AI辨认物体的才能现已高于人类了。

他以为,之所以Google Cloud Vision会接连给出不同答案,是因为AI夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil体系每隔一段时间就会根据旋转的图画从头判别并实时更新。

而人类的大脑往往就卡在第一印象了,所以才会咬定一个物种不放松。

也有人夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil表明,这件事也启发了视觉从业者反思AI辨认物体时的方向问题。

比方网友Sharlin就以为,人类在判别物体时关于空间的知道具有先验性,用这样的标示数据练习出的模型,在不知不觉中也将空间和方向等要素考虑在内了。

可是,现在大多数视觉算法都想努力完成某种程度的旋死神295转不变性,还提出了“标准不变特征转化(SIFT)”等崔稻妻概念。“不变性”或许也反映了人类的局限性,输入方向也是一个重要考虑要素。荣仕健康鞋

胶囊网络或许可行

长春丝足

同一张图片,因为方位不同,AI就产生了不同的判别。也有许多人想到了更多。

传统的卷积神经网络CNN架构中有个坏处夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil,便是缺少可用的空间信息。

一般来说,CNN提取、学习图画特征来辨认物体。拿面部辨认任素氢泉务来说,底层网络学习一般性特征(比方面部轮廓等),跟着层数的加深,提取的特征就越杂乱,特征也精密到眼睛、鼻子等器官。

问题来快穿宋妧了,神经网络用它学习到的一切特征作出最终的输出,但唯一没有考虑到可用的空间信息。人类可以辨认出下面这张有些错位的人脸,但CNN就不能。

其实,让神经网络自己学会判别空间的研讨稀土长效夜光粉现已有了。2017年,“深度学习”三巨子之一的AI大牛Geoffrey Hitton就提出了一种“胶囊网络”(Capsule Networks)的概念。

胶囊网络的解决办法是,完成对空间信息进行编码,也便是核算物体的存在概率。这可以用向量来表明,向量的模代表特征存在的概率,向量方向表明特征姿势信息。

在论文Dynamic Routing Between Capsules中,Hinton和谷歌大脑的搭档Sara Sabour、Nicholas Frosst详细解说了“胶囊网络”的详细情况。

Hinton等人表明,人类视觉体系中,有一个“注视点”的概念,能让人类在视界范围内只对极小部分的图画进行高分辨率处理。

这篇论文假定一个注视点带给咱们的信息不仅仅是一个辨认目标及其特点,还假定咱们的多层视觉体系在每个注视点上都创建了一个相似分析树的东西,并疏忽这些分析树在多个注视点之间怎么和谐。

分析树一般靠动态分配内存来构建,可是这篇论文假定关于单个注视点来说,分析树是从固定多层神经网络中“雕琢”出来的,就像用石头刻出雕像相同。

神经网络的每一层会被分红许多组神经元,每一组称为一个capsule,而分析树的每个节点对应着一个活泼的“胶囊”。

胶囊是输出是一个向量,这篇论文中,在坚持它方向不变的情况下运用非线性缩小了它的量级,保证这个非线性输出不大于1。

也正因为胶囊的输出是一个向量,保证了能运用强壮的动态路由机制,来保证这个输陌上不系舟出可以发送到上层适宜的parent处。

胶囊网络现在的研讨阶段,就像本世纪初将RNN运用于语音辨认的阶段。有十分具有代表性的理由信任这是一个更好的办法,但许多细节还需要接续调查夏威夷,百年老图难倒谷歌AI,网友:是鸭是兔?连我都不能承认,devil。

想看“胶囊素问迷情网络”的详细信息,请戳量子位此前报导:

规划 谷歌 人类
声明:该文观念仅代表作者自己,搜狐号系信息发布渠道,搜狐仅供给信息存储空间效劳。