Yoshua Bengio 教授(个人主页)是机器学习大神之一,尤其是在深度学习这个领域。他连同Geoff Hinton 老先生以及 Yann LeCun(燕乐存)教授,缔造了2006 年开始的深度学习复兴。他的研究工作主要聚焦在高级机器学习方面,致力于用其解决人工智能问题。他是仅存的几个仍然全身心投入在学术界的深度学习教授之一,好多其他教授早已投身于工业界,加入了谷歌或Facebook 公司。
作为机器学习社区的活跃者,Yoshua Bengio 教授在美国东部时间2 月27 日下午一点到两点,在著名社区Reddit 的机器学习板块参加了“Ask Me AnyThing”活动,Yoshua 回答了机器学习爱好者许多问题,干货频频。故作此整理,供远在地球另一面的国内人工智能和机器学习爱好者学习讨论,所有问答的先后顺序由 Reddit 用户投票决定。以下为问答下半部分:
问答上半部分:
问 :据我所知,您是机器学习领域唯一公开的以深度学习来研究社会学的科学家。在你那篇大作“Culture vs Local Minima”中,您的阐述非常精彩,我有如下几个问题期待您的解答:
问 :在讨论和积网络(sum product network,SPN)的时候,Google Brain 小组的一个成员告诉我他对可计算的模型(tractable model)不感兴趣,您对此有何看法?
问 :
问 :众所周知,深度学习已经在图像、视频和声音上取得了突破,您觉得它能否在文本分类上也会取得进展呢?大部分用于文本分类的深度学习,结果看起来跟传统的 SVM 和贝叶思相差无几,您怎么认为?
问 :我看到越来越多的杂志报道深度学习,称之为通往真正人工智能(AI)的必经之路,连线杂志是“罪魁祸首”啊。鉴于人工智能在七八十年代的低潮(当时的人们也是对此期望颇高),您觉得深度学习和机器学习研究者应该做一些什么来防止类似再次发生呢?
问 :首先您实验室开发的 theano 和 pylearn2 非常赞。四个问题:
问 :在您工作的启发下,我去年用概率模型和神经网络完成了关于自然语言处理(NLP)的本科论文。当时我对此非常感兴趣,决定从事相关领域的研究,目前我在攻读研究生,还听了一些相关课程。
但是,过了几个月,我发现 NLP 并没有我想象的那么有意思。这个领域的研究人员都有那么一点迟钝和停滞,当然这是我的个人片面看法。您觉得 NLP 领域的挑战是什么?
问: 我正在写本科论文,关于科学和逻辑的哲学方面。未来我想转到计算机系读硕士,然后攻读机器学习博士学位。除了恶补数学和编程以外,您觉得像我这样的人还需要做些什么来吸引教授的目光呢?
问 :教授您好,蓝脑项目组的研究人员试图通过对人脑的逆向工程来建造一个能思考的大脑。我听说 Hinton 教授在某次演讲的时候抨击了这个想法。这给了我一个印象,Hinton 教授觉得机器学习领域的方法才更可能造就一个真正的通用人工智能。
让我们来假想一下未来的某一个时候,我们已经创造出了真正的人工智能,通过了图灵测试,它活着并且有意识。如果我们能看到它的后台代码,您觉得是人脑逆向工程造就了它,还是人造的成分居多?
问: 有没有人将深度学习应用到机器翻译中呢?您觉得基于神经网络的方法,什么时候才能在商业机器翻译系统中取代基于概率的方法呢?
问 :教授您好,我在各种项目里应用最多的还是决策树和随机森林。您能给讲讲深度学习对比而来的好处么?
问 :在深度学习领域,您有什么好书或者论文推荐?
问 :今日的机器学习技术是否会成为明日人工智能的基石?人工智能发展的最大困难在哪里?是硬件还是软件算法的问题?您对于 Ray Kurzweil’预言 2029 年机器会通过图灵测试怎么看? 他还写了一篇打赌的文章呢。
问 :您对 Jeff Hawkins 对深度学习的批评有什么看法?Hawkins 是 On Intelligence 一书的作者, 该书 2004 年出版,内容关于大脑如何工作,以及如何参考大脑来制造智能机器。他声称深度学习没有对时间序列建模。人脑是基于一系列的传感数据进行思考的,人的学习主要在于对序列模式的记忆,比如你看到一个搞怪猫的视频,实际是猫的动作让你发笑,而不是像 Google 公司所用的静态图片。参见这个链接
问 :深度学习到底在什么领域很有前途?什么领域是它的弱项呢?为什么栈式 RBM 效果很好?其原理能否解释清楚?还是仍然类似魔术黑箱一样?聚合学习和深度学习之间有何联系?
问 :根据我的理解,深度神经网络训练上的成功跟选取正确的超参数有关系,比如网络深度,隐含层的大小,稀疏约束值等等。有些论文基于随机搜索来寻找这些参数。可能跟代码写得好也有关系。有没有一个地方能让研究者找到某些特定任务的合理超参数呢?在这些参数的基础上,可能更容易找到更优化的参数。
问 :有没有什么应用,传统机器学习方法都失败了,而深度学习成功了?
问 :Bengio 教授,在深度学习中,有那么一类方法,采用比较高级的数学如代数和拓扑集合。John Healy 几年前声称通过通过范畴论(Category Theory)改进了神经网络(ART1)。您对于这类尝试有什么看法?是儿戏还是很有前途?
问 :Bengio 教授,我即将完成计算神经学的博士,我对于神经科学和机器学习交叉产生的“灰色地带”非常感兴趣。您觉得脑科学的那些部分和机器学习有关?您想要了解脑科学的什么方面?
英文原文:
感谢包研对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博()或者腾讯微博()关注我们,并与我们的编辑和其他读者朋友交流。