是时候谈“兽工智能”了

曾丹 原创 | 2018-04-18 14:21 | 收藏 | 投票

文|雷宇

来源|智能相对论

 

电影《怪医杜立德》里的杜立德博士有一项神奇的本领——无需借助任何科学仪器的辅助便可与动物交流,起因是他听懂了鸟语,给一只受伤的猫头鹰拔掉了刺,后来被各种动物知道了,随即他的诊所便给动物们看起了病。

 

随着剧情的发展,一只猴子告诉他马戏团的狮子要跳楼自杀,于是杜立德博士赶紧跑去马戏团。 

救下了马戏团想要跳楼的老虎。

 

抛开电影本身的喜剧色彩,这个设定也是很正确的,因为猫头鹰和猴子是电影传话的关键人物,而现阶段人类对一些鸟类和一些灵长类的行为与语言理解是最透彻的。

电影照进现实,可能没那么容易

随着科技发展,像杜立德博士一样的与动物沟通交流变得越来越趋近现实。最近,来自华盛顿大学和艾伦人工智能研究所的团队就合力开发了新的神经网络模型,可以来理解和预测狗的行为。研究人员在狗身上安装了 GoPro 相机用于记录狗的行为,并且通过在四条腿和尾巴上安装的传感器来传递运动数据。

 

通过对狗的肢体动作内容和在 GoPro 上记录的内容进行比对分析,由此可以知晓狗在什么样的动作下看到了什么,并对其行为进行预测。

而在预测狗的行为之前,人们在狗的语言识别上已经进行了不少研究,甚至可以听懂它们讲话。

生物学家 Slobodchikoff 创办了一家名为 Zoolingua 的公司, 该公司开发了一种算法,可以将土拨鼠的声音转为英语。他认为对土拨鼠叫声的研究同样可以用到猫狗身上,原理很简单,即收集大量的狗狗视频,然后用这些素材来训练人工智能算法,用人工来标记每一种叫声和摇尾巴的动作表达什么意思,最终将其翻译出来。 

这是典型的有监督学习方式,需要的大数据首先要通过人工标注,但是由于采样的范围和机器内存等的局限性,这种方式在翻译的准确度和丰富性方面尚有待提高。相较之下,为实现人狗沟通而设计的No More Woof耳机要更胜一筹。 

No More Woof是由北欧发明与发现协会( NCID )开发的,应用的是三个不同技术领域的最新技术的组合,即脑电图传感、微运算和特殊脑机接口软件。这些传感器是脑电图录音机,先录下狗大脑内流动的离子电流造成的电压波动,再将其传到一部微型电脑上,把它们进行解释。

 

但这里依然有几个问题尚未解决。首先是脑机接口至今尚未取得突破性进展,而使用在狗身上显然是外置的,在识别精度上可能依然达不到预期。其次,以上两种翻译机均只能识别一些简单的表达(后者强一些),比如“我饿了”、“我很累”、“我想出去散步”等。最重要的是,就现阶段的技术,还不能像电影里的交互,你能听懂狗,但狗却不能听懂你。

从技术上说,识别动物的表情、动作、叫声并不难,现在的 AI 算法可以快速对这些信息进行识别并分类,但更难的是正确解读这些信息表达的含义。人类对于动物行为和语言的认知程度并不相同,短时间内难以全部理解,甚至一度遭遇瓶颈,那么对动物的语音乃至行为的研究又该向何处发展呢?

与其一味解读,不如认它做老师?

我们对动物的了解,可能比我们知道的要少得多,因此,向它们学习,也许是现阶段人工智能的突破点。智能相对论(ID:aixdlun)分析师雷宇将其称为“兽工智能”,那么“兽工智能”到底是怎么回事?

1.动物可以帮助人工智能变得更聪明

本文预测动物行为的研究证明,当狗看到不同的物体时,身体的反应是不同的,狗能清楚地表现出视觉智能,能识别食物、障碍物、人类以及动物。这种不同反应我们在现实生活中也很常见,而既然狗能够这么聪明地识别出不同目标,那么神经网络也能够被训练成同样聪明。 

因此在后续实验中,探究人员进一步尝试把神经网络训练得“像狗一样”,并让其在不同场景中识别物体,进一步发现,通过这种学习方式,深度神经网络可以识别出室内或者室外等不同场景,并且能够理解怎样在不同场景下行走,路线怎样更合理,而这一学习原理显然可以迁徙到机器人自主行走领域。

训练机器让神经网络懂得如何智能识别物体是一项艰难的任务,因为它需要大量先验知识,这对于机器来说学习起来相当耗费时间,如今狗知道这些规则,那么人们将不必再从基础来训练神经网络,通过观察狗的行为就能掌握这些规则。

众所周知,如今AI技术应用上最火的是两种,一是智能语音,二是机器视觉。但人类目前在触觉、味觉和嗅觉领域这三个领域中的进展特别缓慢,尤其是味觉和嗅觉,属于小众需求,目前只有一些特殊领域的机器需要用到,因此整个研发投入都不足。

就机器识别而言,人是视觉动物,所以感觉视觉比较靠谱。而动物之间的识别,不一定靠视觉。嗅觉、味觉、触觉、听觉都有可能。比如老鼠,由于皮层无褶皱,神经元分层也比灵长类少,视觉皮层占的比例非常小,因此只能看到鼻尖前面一点点。但它嗅觉很发达,它可以通过嗅觉来识别其他物种。

去年7月,一位尼日利亚科学家研制出了一种新型AI芯片,可以让计算机拥有嗅觉识别能力,比如识别出爆炸物气味等等。但是官方披露的资料的极少,至今也没太大的动静,估计现状不容乐观,起码是不能做到大规模的商用。

而一旦商用,机器嗅觉将必须让AI先看到物体这一步骤省略,直接透过现象窥视隐藏物体的本质。如此一来,未来公共场合中的毒品将无处遁形。

2.动物可以开拓全新的学习机制

 

图片来自公众号视觉求索

上图a是一只被研究人员在日本发现和跟踪拍摄的野生乌鸦。它找到了坚果,需要砸碎,可是这个任务超出它的物理动作的能力。于是它发现一个诀窍,把果子放到路上让车轧过去(图b),就可以完成“鸟机交互”了。但是虽然坚果被轧碎了,但它到路中间去吃是一件很危险的事。它又开始观察了,见图c。最后他发现了红灯停绿灯行,过马路要走斑马线这一逻辑复杂的机制,搞清楚之后,乌鸦就选择了一根正好在斑马线上方的一根电线,蹲下来了(图d)。它把坚果抛到斑马线上,等车子轧过去,然后等到行人灯亮了(图e)。这个时候,车子都停在斑马线外面,它终于可以从容不迫地走过去,吃到了地上的果肉(图f)。

这个过程既没有大数据训练的,也没有所谓监督学习,但是乌鸦硬是解决了世界顶级科学家都解决不了的完全自主智能。这是与当前很多机器学习,特别是深度学习完全不同的机制。

那我们如何向乌鸦一样聪明呢?其实可以采用一些搜索进化算法的办法来解决 

首先我们很确定的知道,建造一个和乌鸦的脑子一样强大的电脑是可能的——我们的大脑就是证据。但如果太难完全模拟,那么我们可以模拟出乌鸦大脑的演化过程。

这种方法叫作“基因算法”。它建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式来表现,并且以能否生养后代为评价一样。一组电脑将执行各种任务,最成功的将会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的反复后,挑选出最接近于样本的甚至超越样本的电脑。

这个方法的缺点也很明显,人类主导的演化会比自然快很多很多,演化需要经过几十亿年的时间,而我们却只想花几十年时间,因此我们现阶段具备的技术优势是否能使模拟演化可行还有待商榷。

电影中的杜立德博士因为动物而重拾了快乐,他们始终平等而坦诚。但现实生活的残酷在于,人工智能的受益方是人,“兽工智能”也是。

 

 

【完】

智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。

个人简介
智能和车,边评边测;未来和家,且品且鉴。合作+V:zhinengxdl
每日关注 更多
赞助商广告