Goodfellow 此前为 Google Brain 高级研究员,现在为 OpenAI 的科学家。他在学术界也同样非常活跃,不仅发布了 38 分钟视频,(手把手)教授如何完善生成对抗网络,还在最后与网友互动,详细解答了求知者的各种疑惑。
Jeff Dean:如何实现大规模深度学习?
如果说谷歌是人工智能领域的弄潮儿,Jeff Dean 自然就是沙滩上最为璀璨的珍珠。Jeff Dean 在领导谷歌大脑(2011 年成立,雷锋网注)的这段时间内,研究小组已经创造了超过 1000 个深度学习项目,并将其应用在谷歌现有的产品当中:如 YouTube,谷歌翻译和谷歌相册等。研究人员通过深度学习将大量数据输入到神经网络当中,学习比人类识别速度更快的模式。
在今年 3 月 AlphaGo 与李世石人机大战时,Jeff Dean 就做了《大规模深度学习最新进展》的主题演讲,而在今年 9 月的 Scaled Maching Learning 会议也做了内容类似的《使用 TensorFlow 的大规模深度学习》。
Jeff Dean 认为,神经网络能从数据中学习真正复杂的函数。从一端输入内容转换成另一端的输出内容。他也提及机器学习领域的发展速度非常之快,因为一篇论文发布之后,全球对人工智能有研究的机构都会下载它,并对内容进行解析和论证,加上电子论文的通达性,比起计算机学其它领域的研究进展会快得多。
对于谷歌,Jeff Dean 表示深度学习在语音识别、Image 挑战赛、谷歌翻译、照片搜索、街景影像,甚至是搜索排名上都取得了巨大突破。关于他的更多访谈资料,可以参考《谷歌战神谈增强学习和无监督学习》。
李飞飞:ImageNet又有哪些主要进展?
今年 AI 界并不平静,而李飞飞加盟谷歌,着手成立新的机器学习实验室,则成了里头「万绿丛中一点红」的存在,而雷锋网一直对这位华人女性科学家保持高度关注。
李飞飞在今年参加了 ICPR 2016,并应邀发表了名为《计算机视觉智能的探索》的演讲。她在演讲中提到,自然经历了五亿多年的变革才构造了人类强大的视觉系统,而人工智能的视觉探索之旅也只进行了短短五十年。李飞飞介绍了她的实验室中正在开发的,基于大数据及深度学习的计算机图像视频研究体系。
作为全球计算机视觉领域的知名专家,李飞飞的主要贡献在于参与建立了两个被 AI 研究者广泛使用来教机器分类物体的数据库:Caltech 101 和 ImageNet,而后者,目前已经成为了全球最大的图像识别数据库。
当然,这个演讲的主要内容还是在介绍 ImageNet 的主要进展,而如果你对她最为出名的 TED 演讲还不够熟悉,欢迎一睹雷锋网此前撰写的李飞飞个人介绍。
吴恩达:如何用深度学习构建 AI 系统?
百度人工智能实验室的吴恩达(AndrewNg)也算得上是非常活跃的人工智能学者,他同样在今年的 NIPS 2016 上进行了演讲,名为《如何用深度学习建构人工智能系统》(Nuts and Bolts of Building Applications using Deep Learning)。
吴恩达在演讲中指出深度学习非常火的原因在于,神经网络能够扩大无限大的规模,并能够依靠这一点引领深度学习。在百度的人工智能实验室中,他严格将团队分为了算法与架构两大体系,认为没有人是两者皆擅长的,因此这一点可以为其它深度学习创业公司的团队提供参考。
而在接下来的展望中,吴恩达认为下一个深度学习的大潮在于端对端的学习。需要足够多的数据量,才能实现更加纯粹的端到端学习,也就是直接通过深度学习将语音对标到最终想要的文本,并通过深度学习自身的体征提取来获得结果。关于吴恩达的 NIPS 2016 最新演讲,还请回顾一下雷锋网的相关文章。
Michael Jordan:思维层与数据科学革命
此 Michael Jordan 非彼乔丹,他是加州大学伯克利分校(University of California, Berkeley)电子工程系、计算机科学系以及统计系的杰出教授。在他麾下学习过的不少学生都已经成为了鼎鼎有名的机器学习大牛,比如 Yoshua Bengio 和 Andrew Ng 都是他的得意门生。
他于今年五月在伯克利分校做了一个关于计算思维、推理思维及数据科学的演讲。在会上他提到,数据科学需要计算思维与推理思维的完全融合,并指出了大数据环境下验证模式、解释模式与计算过程中可能出现的问题。