深度学习是计算机科学和数学交叉的一个快速变化的领域,属于机器学习的一个相对较新的分支。机器学习的目的是教计算机根据给定的数据执行各种任务。这份指南的目标读者是已有一些数学基础,了解一些编程语言,现在想深入学习深度学习的人。
  这份完全指南主要包括2个视频教程,2部重要专著,以及一系列深入浅出的博客文章。资料后面的星星数量代表难度等级。
  Hugo Larochelle 在 YouTube 上的视频课程 ★★
斯坦福的 CS231n(视觉识别的卷积神经网络)★★
Michael Nielsen 的著作《神经网络与深度学习》★
  Ian Goodfellow,Yoshua Bengio 和 Aaron Courville 合著的《深度学习》★★★
    先修科目

  你必须有基本的大学水平的数学基础,可以在 Ian Goodfellow,Yoshua Bengio 和 Aaron Courville 合著的《深度学习》(Deep Learning)一书的前几章中回顾这些概念:
  

  • 《深度学习》第2章:线性代数

  • 《深度学习》第3章:概率和信息理论

  • 《深度学习》第4章:数值计算

  你还必须了解一些编程基础,以开发和测试深度学习模型。我们建议使用 Python 进行机器学习,需要掌握用于科学计算的 NumPy / SciPy 库。
  

  • 斯坦福的 CS231n 课程的指导资料,Justin Johnson 写的 Python / NumPy / SciPy / Matplotlib 教程 ★  (http://cs231n.github.io/python-numpy-tutorial/)

  • Scipy 讲义,非常详细地介绍了常用的库以及多个高级主题 ★★ (http://www.scipy-lectures.org/)

  当你已经有以上的先修基础之后,我们建议接着学习以下四个视频课程或书籍。你可以选择其中任何一项,也可组合学习。星星的数量代表难度。
  

  • Hugo Larochelle 在 YouTube 上的视频课程。视频录制于在2013年,但大部分内容仍然是很新的。课程详细解释了神经网络背后的数学。有幻灯片和相关材料。★★ (https://www.youtube.com/playlist?list=PL6Xpj9I5qXYEcOhn7TqghAJ6NAPrNmUBH)

  • 斯坦福的 CS231n(视觉识别的卷积神经网络)。由李飞飞,Andrej Karpathy 和Justin Johnson 撰写。课程侧重于图像处理,但涵盖了深度学习中的大多数重要概念。有2016年的视频和讲义。★★ (http://cs231n.stanford.edu/)

  • Michael Nielsen 的著作《神经网络与深度学习》,可以在线阅读。这是最容易入门神经网络的书籍,它没有包括所有重要的主题,但包括了基本概念的解释和代码。★ (http://neuralnetworksanddeeplearning.com/)

  • Ian Goodfellow,Yoshua Bengio 和 Aaron Courville 合著的《深度学习》,这是学习深度学习最全面的书籍,涵盖了比其他所有课程都要多的主题。★★★ (http://www.deeplearningbook.org/)

  Tips:
  有许多软件框架能够为机器学习和深度学习提供必要的功能,类和模块。但我们建议不要在学习的早期阶段使用这些框架,而是从头开始实现基本的算法。大多数课程都有详细解释算法背后的数学,所以实现起来并不难。
  

  • Jupyter 写了一个非常好用的 Python 代码指南,可以很好地与 matplotlib 集成,matplotlib 是一个流行的可视化工具。我们建议你在这样的环境中实现算法。★(https://jupyter-notebook-beginner-guide.readthedocs.io/en/latest/)
  机器学习基础

  机器学习是计算机科学和数学交叉的相对成熟的学科,而深度学习只是它的一个小的子领域。因此,机器学习的概念和工具对理解深层学习非常重要。推荐材料:
  

  • 机器学习可视化介绍 - 决策树 ★ (http://www.r2d3.us/visual-intro-to-machine-learning-part-1/)

  • 吴恩达的机器学习课程,是 Coursera上最受欢迎的机器学习课程 ★★(https://www.coursera.org/learn/machine-learning)

  • Larochelle 的课程,虽然没有单独介绍机器学习的讲座,但所有重要概念都有必要的讲解。

  • 斯坦福的 CS231n 的前2节

    • 训练和测试模型(kNN)★★
    • 线性分类(SVM)★★
      
  • 《深度学习》第5章

    • 机器学习基础 ★★★
      
  • 主成分分析的视觉化解释 ★ (http://setosa.io/ev/principal-component-analysis/)

  • 如何有效地使用 t-SNE ★★ (http://distill.pub/2016/misread-tsne/)

  Tips:
  大多数流行的机器学习算法可以在 Scikit-learn Python 库中实现,从头开始实现各个算法有助于理解机器学习的工作原理。实践方面的推荐如下:
  

  • Python 实践机器学习课程,该课程包括线性回归,k-最近邻法,支持向量机等,先展示如何在scikit-learn 中使用它们,然后从头实现各个算法。★ (https://pythonprogramming.net/machine-learning-tutorial-python-introduction/)

  • 吴恩达的Coursera课程有使用 Octave 语言的许多作业,相同的算法可以在 Python 中实现。★★

  神经网络基础

  神经网络是很强大的机器学习算法,它们构成了深度学习的基础。
  

  • 神经网络基础的视觉化、互动性指南 - 解释了如何用简单的神经网络进行线性回归★ (http://jalammar.github.io/visual-interactive-guide-basics-neural-networks/)

  • Larochelle 的神经网络课程,以下几节:

    • 前馈神经网络 ★★
    • 训练神经网络 ★★
      
  • 斯坦福 CS231n 的以下2节:

    • 反向传播 ★★
    • 神经网络的架构★★
      
  • Michael Nielsen 的《神经网络与深度学习》以下几节:

    • 使用神经网来识别手写数字 ★
    • 反向传播算法的工作原理 ★
    • 神经网络的可视化解释 ★
      
  • 《深度学习》第6章

    • 深度前馈网络 ★★★
      
  • 理解反向传播 - 解释了从头开始实现反向传播的重要性 ★★ (https://medium.com/@karpathy/yes-you-should-understand-backprop-e2f06eab496b)

  • 计算图表上的微积分:反向传播 ★★ (http://colah.github.io/posts/2015-08-Backprop/)

  • 玩转神经网络! ★ (http://playground.tensorflow.org/)

  Tips
  我们建议你尝试从头开始实现一个单层的神经网络,包括其训练过程:
  

  • 在纯 Python / NumPy 环境中实现 softmax 分类器和一个简单的神经网络 ★ (http://cs231n.github.io/neural-networks-case-study/)

  • Andrej Karpathy在他的神经网络骇客指南中用 Javascript 实现反向传播算法 ★ (http://karpathy.github.io/neuralnets/)

  • 在 Python 中从头开始实现神经网络 ★ (http://www.wildml.com/2015/09/implementing-a-neural-network-from-scratch/)

  改进神经网络算法

  神经网络不容易训练。有时它们根本不学习(欠拟合),有时他们会准确地学会你给它们的数据,但不会将学到的“知识”推广到未知的数据(过拟合)。有许多方法能够处理这些问题:
  

  • Larochelle 神经网络课程的以下几节:
      2.8-2.11:正则化、参数初始化等 ★★
      7.5:Dropout ★★

  • 斯坦福 CS231n 的以下1节:

    • 数据和损失的设置★★
      
  • Michael Nielsen 的《神经网络与深度学习》以下几节:

    • 改进神经网络学习的方式★
    • 为什么深层神经网络难以训练? ★
      
  • 《深度学习》以下几章:

    • 深入学习的正则化 ★★★
    • 训练深度模型的优化 ★★★
    • 实践方法论 ★★★
      
  • 在 MNIST 上演示 ConvNetJS Trainer - 不同的优化算法的性能的可视化展示 ★ (http://cs.stanford.edu/people/karpathy/convnetjs/demo/trainers.html)
    梯度下降优化算法概述★★★ (http://sebastianruder.com/optimizing-gradient-descent/)
    神经网络,流形和拓扑★★★ (http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/)

  Tips:
  有许多框架提供标准算法,并针对不同硬件进行了性能优化。除了Torch需要Lua外,大多数框架有用于Python的接口。当你了解如何实现基本的学习算法后,可以选择一个框架来建立模型。建议的框架有:Theano、TensorFlow、Torch、Lasagne 和 Keras,如果你想了解哪个框架适合你,可以参考斯坦福大学CS231n课程的第12讲。★★
  卷积神经网络

  卷积神经网络(CNN)是一种特殊的神经网络,它使用几个小技巧使模型学习得更快更好。 可以说,ConvNets 彻底改变了计算机视觉,并且也大量应用于语音识别和文本分类。
  

  • Larochelle 课程的第9节:

    • 计算机视觉 ★★
      
  • 斯坦福 CS231n 的以下几节:

    • ConvNets介绍★★
    • 卷积神经网络
    • 本地化和检测★★
    • 可视化、神经风格和对抗★★
    • 图像分割★★
      
  • 《神经网络与深度学习》第6章:

    • 深度学习★
      
  • 《深度学习》第9章:

    • 卷积网络★★★
      
  • Image Kernels的可视化解释 ★ (http://setosa.io/ev/image-kernels/)

  • ConvNetJS MNIST演示 - 在浏览器中直观地演示卷积网络★ (http://cs.stanford.edu/people/karpathy/convnetjs/demo/mnist.html)

  • Conv网络:模块化视角★★ (http://colah.github.io/posts/2014-07-Conv-Nets-Modular/)

  • 理解卷积★★★ (http://colah.github.io/posts/2014-07-Understanding-Convolutions/)

  • 理解NLP的卷积神经网络★★ (http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/)

  循环神经网络

  循环神经网络(RNN)是为序列运算设计,通常用于句子分类(例如情感分析)和语音识别,也用于文本生成甚至图像生成。
  

  • 循环神经网络的不合理有效性 - 描述了RNN如何生成文本,数学论文和C ++代码★ (http://karpathy.github.io/2015/05/21/rnn-effectiveness/)

  • Hugo Larochelle 的课程没有包含循环神经网络(虽然它涵盖了许多实用RNN的主题)。我们建议学习Nando de Freitas 的《循环神经网络和LSTM》课程补充这部分内容。★★ (https://www.youtube.com/watch?v=56TYLaQN4N8)

  • 斯坦福 CS231n 的以下2节:

    • 循环神经网络、图片说明、LSTM★★
    • Soft attention ★★
      
  • 《深度学习》第10章:

    • 序列建模:循环和递归网络★★★
      
  • Richard Socher 的斯坦福CS224d(2016)《循环神经网络》课程★★ (https://www.youtube.com/watch?v=nwcJuGuG-0s&index=8&list=PLmImxx8Char9Ig0ZHSyTqGsdhb9weEGam)

  • 理解LSTM网络★★ (http://colah.github.io/posts/2015-08-Understanding-LSTMs/)

  自编码器

  自编码器是设计用于无监督学习的神经网络,即输入数据未被标记时。自编码器可以用于降维,预训练其他神经网络,用于数据生成等。
  Larochelle 课程的以下2节:
      6. 自编码器★★
      7.6. 深度自编码器★★
  

  • 斯坦福 CS231n 的以下1节:

    • 视频和无监督学习 ★★
      
  • 《深度学习》以下1章:

    • 自编码器★★★
      
  • ConvNetJS去噪自编码器演示 ★ (http://cs.stanford.edu/people/karpathy/convnetjs/demo/autoencoder.html)

  • 变量自编码器和图像生成★★ (https://www.youtube.com/watch?v=P78QYjWh5sM&index=3&list=PLE6Wd9FR--EfW8dtjAuPoTuPcqmOV53Fu)

  概率图模型

  概率图模型(PGM)是统计学和机器学习交叉的子领域,关于PGM的书籍和课程有很多,这里我们介绍在深度学习环境中如何应用这些模型。Hugo Larochelle 的课程讲解了几个着名的图模型,《深度学习》中有四章(16-19)是有关图模型理论的,最后一章介绍了十几个模型。这些主题需要了解较深的数学知识。
  

  • Larochelle 课程的以下几节:
  • 条件随机场★★★
  • 训练CRF★★★
  • 波尔兹曼机★★★
    7.7-7.9. 深度置信网络★★★
    9.10. 卷积RBM★★★

  • 《深度学习》以下几章:

  • 线性因子模型 - 概率模型的第一步★★★
  • 深度学习的结构化概率模型★★★
  • 蒙特卡罗方法★★★
  • 分配函数★★★
  • 近似推理★★★
  • 深度生成模型 - 包括波尔兹曼机(RBM,DBN,...),变分自编码器,生成对抗网络,自回归模型等。★★★

  • 生成模型 - 关于变分自编码器,生成对抗网络及其改进,by OpenAI ★★★ (https://openai.com/blog/generative-models/)

  • 神经网络动物园 ★★ (http://www.asimovinstitute.org/neural-network-zoo/)

  The state of the art

  深度学习是一个非常活跃的科学研究领域。为了跟进最先进的技术,我们必须阅读新的论文,跟进重要的会议。通常所有新的idea都会先在arxiv.org上发布,然后,其中一些论文会被提交到会议和同行评审。其中最好的论文会提交给重要会议,并在期刊上发表。如果作者没有为他们的模型释放代码,会有许多人试图实现它们并将代码放到GitHub上。再过一两年时间,详细解释这些idea和实现代码的高质量的博客文章、教程和视频会出现在网络上。
  深度学习论文阅读路线图 - 包含了各个主题的重要论文(https://github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap)
  

  • Arxiv Sanity Preserver (http://www.arxiv-sanity.com/)

  • Videolectures.net 有许多高阶主题的视频(http://videolectures.net/)

  • / r / MachineLearning - 是reddit一个非常活跃的子论坛,几乎所有重要的新论文都有讨论。(https://www.reddit.com/r/MachineLearning/)

  原文地址:http://yerevann.com/a-guide-to-deep-learning/
新智元编译