梅州建网站,国产前端框架 做网站,玩车 wordpress,深圳黄页企业联系方式摘要#xff1a;7月7日上午#xff0c;百度首席科学家Andrew Ng应邀做客中国科学院自动化研究所并做了《Deep Learning#xff1a;Overview and trends》的学术报告。
【编者按】人工智能被认为是下一个互联网大事件#xff0c;当下#xff0c;谷歌、微软、百度等知名的高…摘要7月7日上午百度首席科学家Andrew Ng应邀做客中国科学院自动化研究所并做了《Deep LearningOverview and trends》的学术报告。
【编者按】人工智能被认为是下一个互联网大事件当下谷歌、微软、百度等知名的高科技公司争相投入资源占领深度学习的技术制高点百度在2014年5月19日宣布曾领导谷歌的深度学习项目——Google Brain 被誉为谷歌大脑之父的Andrew Ng加盟百度正式领导百度研究院工作尤其是Baidu Brain计划。7月7日他应邀做客中国科学院自动化研究所发表了《Deep LearningOverview and trends》的学术报告本文来自新浪梁斌的博客。
以下为原文
一早出发8点20就赶到现场 人越聚越多Ng提前几分钟到达现场掌声一片。
Ng的报告总体上提到了五个方向。
1. Deep Learning相比于传统方法的优势
首先一个很直观的图随着训练量的提高传统方法很快走到天花板而Deep Learning的效果还能持续走高后来这个在提问环节也有同学问道是否会一直提高Andrew Ng也坦诚需要面对不同的问题来讨论而且任何方法都有天花板。 这个问题蛮关键的我补充回答一下其实这是一个特征表达力的问题传统方法特征表达力不如Deep Learning的多层学习得到的更有效果的表达。举个例子假定有一种疾病这种疾病容易在个高且胖的人群以及个矮且瘦的人群中易感。那么任意从给一个特征角度上看比如肥胖那么胖的这部分人中得此病的概率为50%不胖的也是50%那么胖这个特征没有表达力。 用学术上的术语来说身高和体型是两个Marginally independent的变量即如果观察到了他们产生的结果他们就不独立了。也就是如果身高和体型在用于检测这种疾病的时候他们就不独立了因此需要有一种特征表示的方式来表示他们的这种不独立性能够combine他们以形成更好的特征。而这种更结构化的特征需要大量的语料才能training到位。而独立性的特征往往少部分语料就可以获得很好的结果但随着语料数量的提高无法observe到结构化的特征因此更多的语料就浪费了。我们都知道这是AI领域的XOR问题也就是二层神经网络就能求解换言之多层神经网络mining出来更好的特征。 接着Ng也直观的展示了从像素级特征(表达力最弱到edges级特征直到object级特征。 从edges特征大家看到的这个形式其实是深度神经网络的edges中的一个小块就是input layer到第一个hidden layer之间的一组边如果是RBM 的话或者是第一个hidden layer到output layer的一组边这组边可以理解成training的成果。而hidden layer是一个sparse coding的向量用来combine不同组的边来还原出input layer。
因此可以看到通过深度学习的处理无需tagged data通过自学习的方式就可以做到特征的表达力从像素级提高到了 object models多么美妙啊难怪Ng用了Amazing这个词而且再一次地露出了特有的微笑。
2. Deep Learning存在的问题
Ng提到了通常学生试验在10 million connections这个水平因为再大已经超出计算的能力但如果采用并发的方法160000万个CPUs的情况下可以达到1 billion connections这个水平。如果采用特制的GPU来计算可以达到10 billion connections的水平。
从我自己的实验结果看目前做千万connection是没问题的时机成熟我就开放出来但受限于CPU在向量计算的劣势再大的话每一轮训练的时间就会大大提高变得不可计算而分布式Parameter server的搞法虽然能够第一步把语料shard一下然后各自训练到了最高层用类似transform learning的法子再combine这段话是我自己猜测的Ng的报告这里我没听太懂图片是按照记忆画出。 我个人的理解就是一个巨大语料切成n个部分每个部分产生表达力强的特征而这些表达力强的特征在一个阶段就是那个长条哪里进行combine也就是这个hidden layer可以很好的表达来自不同shard的特征最后在展开各层用不同shard上的tagged data 来进一步调整每条边的权重。
3. Deep Learning的Idea 这个可能没什么可说的但我认为很重要这段话不难翻译人脑中大部分感知器是一个非常简单的计算过程。但通过组合可以达到很高的理解力。但问题是如何组合感知的过程如何从低级阶段到高级阶段从明暗色彩的感知到人类喜怒哀乐的情感整个过程的每一步可能都是naive得但整个认知链条的末端一定是语义的有感情的上升到概念的。另外通常还有一个体会比如看一本小说脑海中就能自然浮现画面可见不同神经感知器也不是完全独立的而是彼此联系的。
4. Deep Learning的一些成果
报告中提到很多成果特别是提到了图像识别中在DL面前SIFT特征提取算法弱爆了我还是为Ng的自信和霸气略震了一下。按照常规学术界的同志应该谦虚尊重下老前辈尊重下传统的。
后来的提问环节也有同学问到那些old 算法框架怎么办呢Ng说无论怎样这就是科学技术的趋势当一个东西产生明显效果后越来越多的方法会采用这些新方法而传统方法不是说研究者就立马到zero但的确会fewer and fewer。当时我心里想无论如何如何总得有留下少部分坚守的同志没准10年后翻身也难说但大部队应该扑新方法的。 5. 未来趋势 Andrew教授对深度学习未来的发展进行了展望1将会越来越重视对无标记数据的特征学习2深度学习将全面占领计算机视觉和语音识别领域3向量化表示的提出将对NLP领域产生重大影响并将对机器翻译、网页搜索和对话系统等性能提升有所帮助。总的来说模型的规模依旧是最大的挑战。 提问环节有很多有趣的话题比如有人问百度以及Andrew Ng本人对Spark的评价Ng回答到百度用了很多开源工具但机器学习的很多问题太Uniq了太特殊了而Spark这种通用的东西很难满足需求当然不是说Spark不好只是Ng本人也很少用用了Less这个词汇。
还有包括为什么加入百度Ng说了三个原因第一他认为机器学习是Transform世界Transform互联网的一种方式相比coursera更加感兴趣。第二百度拥有大量优秀的科学家高质量的同事比如余凯张潼徐伟同志等等。第三百度拥有大量的data 还有个同学要DL的Reading ListNg给了个这个http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Recommended_Readings 。另外根据网友 fiona_duan 的反馈。最后Andrew提到的是他出生于香港长在英国和新加坡之后在美求学和生活。他和妻子都在美国。他妻子叫Carol Reiley. Carol 是约翰·霍普金斯大学的医学博士以及在读计算机博士研究方向是生物医学方向的机器人应用。
人物介绍Andrew NG教授2014年5月16日加入百度担任百度公司首席科学家负责百度研究院的领导工作。加入百度前任斯坦福大学计算机科学系和电气工程系的副教授斯坦福人工智能实验室的主任。Andrew Ng是深度学习领域的顶级专家曾领导谷歌的深度学习项目——Google Brain 被誉为谷歌大脑之父。Andrew Ng还是在线教育平台Coursera联合创始人。2013年《时代》杂志评选的全球最具影响力百大人物中上榜的十六名科技人物之一。 原文链接 2014-7 Andrew Ng 自动化所报告听后感