这份完全指南主要包括2个视频教程,2部重要专著,以及一系列深入浅出的博客文章。资料后面的星星数量代表难度等级。
Hugo Larochelle 在 YouTube 上的视频课程 ★★
斯坦福的 CS231n(视觉识别的卷积神经网络)★★
Michael Nielsen 的著作《神经网络与深度学习》★
Ian Goodfellow,Yoshua Bengio 和 Aaron Courville 合著的《深度学习》★★★
先修科目
你必须有基本的大学水平的数学基础,可以在 Ian Goodfellow,Yoshua Bengio 和 Aaron Courville 合著的《深度学习》(Deep Learning)一书的前几章中回顾这些概念:
- 《深度学习》第2章:线性代数
- 《深度学习》第3章:概率和信息理论
- 《深度学习》第4章:数值计算
- 斯坦福的 CS231n 课程的指导资料,Justin Johnson 写的 Python / NumPy / SciPy / Matplotlib 教程 ★ (http://cs231n.github.io/python-numpy-tutorial/)
- Scipy 讲义,非常详细地介绍了常用的库以及多个高级主题 ★★ (http://www.scipy-lectures.org/)
- Hugo Larochelle 在 YouTube 上的视频课程。视频录制于在2013年,但大部分内容仍然是很新的。课程详细解释了神经网络背后的数学。有幻灯片和相关材料。★★ (https://www.youtube.com/playlist?list=PL6Xpj9I5qXYEcOhn7TqghAJ6NAPrNmUBH)
- 斯坦福的 CS231n(视觉识别的卷积神经网络)。由李飞飞,Andrej Karpathy 和Justin Johnson 撰写。课程侧重于图像处理,但涵盖了深度学习中的大多数重要概念。有2016年的视频和讲义。★★ (http://cs231n.stanford.edu/)
- Michael Nielsen 的著作《神经网络与深度学习》,可以在线阅读。这是最容易入门神经网络的书籍,它没有包括所有重要的主题,但包括了基本概念的解释和代码。★ (http://neuralnetworksanddeeplearning.com/)
- Ian Goodfellow,Yoshua Bengio 和 Aaron Courville 合著的《深度学习》,这是学习深度学习最全面的书籍,涵盖了比其他所有课程都要多的主题。★★★ (http://www.deeplearningbook.org/)
有许多软件框架能够为机器学习和深度学习提供必要的功能,类和模块。但我们建议不要在学习的早期阶段使用这些框架,而是从头开始实现基本的算法。大多数课程都有详细解释算法背后的数学,所以实现起来并不难。
- Jupyter 写了一个非常好用的 Python 代码指南,可以很好地与 matplotlib 集成,matplotlib 是一个流行的可视化工具。我们建议你在这样的环境中实现算法。★(https://jupyter-notebook-beginner-guide.readthedocs.io/en/latest/)
机器学习是计算机科学和数学交叉的相对成熟的学科,而深度学习只是它的一个小的子领域。因此,机器学习的概念和工具对理解深层学习非常重要。推荐材料:
- 机器学习可视化介绍 - 决策树 ★ (http://www.r2d3.us/visual-intro-to-machine-learning-part-1/)
- 吴恩达的机器学习课程,是 Coursera上最受欢迎的机器学习课程 ★★(https://www.coursera.org/learn/machine-learning)
- Larochelle 的课程,虽然没有单独介绍机器学习的讲座,但所有重要概念都有必要的讲解。
- 斯坦福的 CS231n 的前2节
- 训练和测试模型(kNN)★★
- 线性分类(SVM)★★
- 训练和测试模型(kNN)★★
- 《深度学习》第5章
- 机器学习基础 ★★★
- 机器学习基础 ★★★
- 主成分分析的视觉化解释 ★ (http://setosa.io/ev/principal-component-analysis/)
- 如何有效地使用 t-SNE ★★ (http://distill.pub/2016/misread-tsne/)
大多数流行的机器学习算法可以在 Scikit-learn Python 库中实现,从头开始实现各个算法有助于理解机器学习的工作原理。实践方面的推荐如下:
- Python 实践机器学习课程,该课程包括线性回归,k-最近邻法,支持向量机等,先展示如何在scikit-learn 中使用它们,然后从头实现各个算法。★ (https://pythonprogramming.net/machine-learning-tutorial-python-introduction/)
- 吴恩达的Coursera课程有使用 Octave 语言的许多作业,相同的算法可以在 Python 中实现。★★
神经网络是很强大的机器学习算法,它们构成了深度学习的基础。
- 神经网络基础的视觉化、互动性指南 - 解释了如何用简单的神经网络进行线性回归★ (http://jalammar.github.io/visual-interactive-guide-basics-neural-networks/)
- Larochelle 的神经网络课程,以下几节:
- 前馈神经网络 ★★
- 训练神经网络 ★★
- 前馈神经网络 ★★
- 斯坦福 CS231n 的以下2节:
- 反向传播 ★★
- 神经网络的架构★★
- 反向传播 ★★
- Michael Nielsen 的《神经网络与深度学习》以下几节:
- 使用神经网来识别手写数字 ★
- 反向传播算法的工作原理 ★
- 神经网络的可视化解释 ★
- 使用神经网来识别手写数字 ★
- 《深度学习》第6章
- 深度前馈网络 ★★★
- 深度前馈网络 ★★★
- 理解反向传播 - 解释了从头开始实现反向传播的重要性 ★★ (https://medium.com/@karpathy/yes-you-should-understand-backprop-e2f06eab496b)
- 计算图表上的微积分:反向传播 ★★ (http://colah.github.io/posts/2015-08-Backprop/)
- 玩转神经网络! ★ (http://playground.tensorflow.org/)
我们建议你尝试从头开始实现一个单层的神经网络,包括其训练过程:
- 在纯 Python / NumPy 环境中实现 softmax 分类器和一个简单的神经网络 ★ (http://cs231n.github.io/neural-networks-case-study/)
- Andrej Karpathy在他的神经网络骇客指南中用 Javascript 实现反向传播算法 ★ (http://karpathy.github.io/neuralnets/)
- 在 Python 中从头开始实现神经网络 ★ (http://www.wildml.com/2015/09/implementing-a-neural-network-from-scratch/)
神经网络不容易训练。有时它们根本不学习(欠拟合),有时他们会准确地学会你给它们的数据,但不会将学到的“知识”推广到未知的数据(过拟合)。有许多方法能够处理这些问题:
- Larochelle 神经网络课程的以下几节:
2.8-2.11:正则化、参数初始化等 ★★
7.5:Dropout ★★
- 斯坦福 CS231n 的以下1节:
- 数据和损失的设置★★
- 数据和损失的设置★★
- Michael Nielsen 的《神经网络与深度学习》以下几节:
- 改进神经网络学习的方式★
- 为什么深层神经网络难以训练? ★
- 改进神经网络学习的方式★
- 《深度学习》以下几章:
- 深入学习的正则化 ★★★
- 训练深度模型的优化 ★★★
- 实践方法论 ★★★
- 深入学习的正则化 ★★★
- 在 MNIST 上演示 ConvNetJS Trainer - 不同的优化算法的性能的可视化展示 ★ (http://cs.stanford.edu/people/karpathy/convnetjs/demo/trainers.html)
梯度下降优化算法概述★★★ (http://sebastianruder.com/optimizing-gradient-descent/)
神经网络,流形和拓扑★★★ (http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/)
有许多框架提供标准算法,并针对不同硬件进行了性能优化。除了Torch需要Lua外,大多数框架有用于Python的接口。当你了解如何实现基本的学习算法后,可以选择一个框架来建立模型。建议的框架有:Theano、TensorFlow、Torch、Lasagne 和 Keras,如果你想了解哪个框架适合你,可以参考斯坦福大学CS231n课程的第12讲。★★
卷积神经网络
卷积神经网络(CNN)是一种特殊的神经网络,它使用几个小技巧使模型学习得更快更好。 可以说,ConvNets 彻底改变了计算机视觉,并且也大量应用于语音识别和文本分类。
- Larochelle 课程的第9节:
- 计算机视觉 ★★
- 计算机视觉 ★★
- 斯坦福 CS231n 的以下几节:
- ConvNets介绍★★
- 卷积神经网络
- 本地化和检测★★
- 可视化、神经风格和对抗★★
- 图像分割★★
- ConvNets介绍★★
- 《神经网络与深度学习》第6章:
- 深度学习★
- 深度学习★
- 《深度学习》第9章:
- 卷积网络★★★
- 卷积网络★★★
- Image Kernels的可视化解释 ★ (http://setosa.io/ev/image-kernels/)
- ConvNetJS MNIST演示 - 在浏览器中直观地演示卷积网络★ (http://cs.stanford.edu/people/karpathy/convnetjs/demo/mnist.html)
- Conv网络:模块化视角★★ (http://colah.github.io/posts/2014-07-Conv-Nets-Modular/)
- 理解卷积★★★ (http://colah.github.io/posts/2014-07-Understanding-Convolutions/)
- 理解NLP的卷积神经网络★★ (http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/)
循环神经网络(RNN)是为序列运算设计,通常用于句子分类(例如情感分析)和语音识别,也用于文本生成甚至图像生成。
- 循环神经网络的不合理有效性 - 描述了RNN如何生成文本,数学论文和C ++代码★ (http://karpathy.github.io/2015/05/21/rnn-effectiveness/)
- Hugo Larochelle 的课程没有包含循环神经网络(虽然它涵盖了许多实用RNN的主题)。我们建议学习Nando de Freitas 的《循环神经网络和LSTM》课程补充这部分内容。★★ (https://www.youtube.com/watch?v=56TYLaQN4N8)
- 斯坦福 CS231n 的以下2节:
- 循环神经网络、图片说明、LSTM★★
- Soft attention ★★
- 循环神经网络、图片说明、LSTM★★
- 《深度学习》第10章:
- 序列建模:循环和递归网络★★★
- 序列建模:循环和递归网络★★★
- Richard Socher 的斯坦福CS224d(2016)《循环神经网络》课程★★ (https://www.youtube.com/watch?v=nwcJuGuG-0s&index=8&list=PLmImxx8Char9Ig0ZHSyTqGsdhb9weEGam)
- 理解LSTM网络★★ (http://colah.github.io/posts/2015-08-Understanding-LSTMs/)
自编码器是设计用于无监督学习的神经网络,即输入数据未被标记时。自编码器可以用于降维,预训练其他神经网络,用于数据生成等。
Larochelle 课程的以下2节:
6. 自编码器★★
7.6. 深度自编码器★★
- 斯坦福 CS231n 的以下1节:
- 视频和无监督学习 ★★
- 视频和无监督学习 ★★
- 《深度学习》以下1章:
- 自编码器★★★
- 自编码器★★★
- ConvNetJS去噪自编码器演示 ★ (http://cs.stanford.edu/people/karpathy/convnetjs/demo/autoencoder.html)
- 变量自编码器和图像生成★★ (https://www.youtube.com/watch?v=P78QYjWh5sM&index=3&list=PLE6Wd9FR--EfW8dtjAuPoTuPcqmOV53Fu)
概率图模型(PGM)是统计学和机器学习交叉的子领域,关于PGM的书籍和课程有很多,这里我们介绍在深度学习环境中如何应用这些模型。Hugo Larochelle 的课程讲解了几个着名的图模型,《深度学习》中有四章(16-19)是有关图模型理论的,最后一章介绍了十几个模型。这些主题需要了解较深的数学知识。
- Larochelle 课程的以下几节:
- 条件随机场★★★
- 训练CRF★★★
- 波尔兹曼机★★★
7.7-7.9. 深度置信网络★★★
9.10. 卷积RBM★★★
- 《深度学习》以下几章:
- 线性因子模型 - 概率模型的第一步★★★
- 深度学习的结构化概率模型★★★
- 蒙特卡罗方法★★★
- 分配函数★★★
- 近似推理★★★
- 深度生成模型 - 包括波尔兹曼机(RBM,DBN,...),变分自编码器,生成对抗网络,自回归模型等。★★★
- 生成模型 - 关于变分自编码器,生成对抗网络及其改进,by OpenAI ★★★ (https://openai.com/blog/generative-models/)
- 神经网络动物园 ★★ (http://www.asimovinstitute.org/neural-network-zoo/)
深度学习是一个非常活跃的科学研究领域。为了跟进最先进的技术,我们必须阅读新的论文,跟进重要的会议。通常所有新的idea都会先在arxiv.org上发布,然后,其中一些论文会被提交到会议和同行评审。其中最好的论文会提交给重要会议,并在期刊上发表。如果作者没有为他们的模型释放代码,会有许多人试图实现它们并将代码放到GitHub上。再过一两年时间,详细解释这些idea和实现代码的高质量的博客文章、教程和视频会出现在网络上。
深度学习论文阅读路线图 - 包含了各个主题的重要论文(https://github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap)
- Arxiv Sanity Preserver (http://www.arxiv-sanity.com/)
- Videolectures.net 有许多高阶主题的视频(http://videolectures.net/)
- / r / MachineLearning - 是reddit一个非常活跃的子论坛,几乎所有重要的新论文都有讨论。(https://www.reddit.com/r/MachineLearning/)
新智元编译