《神经网络与深度学习》读书笔记

神经网络与深度学习

使用神经网络识别手写数字

感知机

  • 输入
  • 输出
  • 权重(weight)
  • 阈值(threshold value)

  • 偏置(bias)

  • 与非门 (NAND gate)

感知机网络计算任何逻辑函数

NAND

一个没有输入的感知机,那么加权和恒为 0。

所以,我们最好不要将输入感知机当做感知机,而是理解为一个特殊的单元,它能够输出我们想要的值。

输入感知机

sigmoid神经元

神经网络的结构

用简单的网络结构解决手写数字识别

通过梯度下降法学习参数

实现我们的神经网络来分类数字

迈向深度学习

反向传播算法是如何工作的

热身:一个基于矩阵的快速计算神经网络输出的方法

关于代价函数的两个假设

Hadamard积,s⨀t

反向传播背后的四个基本等式

四个基本方程的证明(自选)

反向传播算法

反向传播算法代码

为什么说反向传播算法很高效

反向传播:整体描述

改进神经网络的学习方法

交叉熵代价函数

用交叉熵解决手写数字识别问题

交叉熵的意义是什么?它又是怎么来的?

Softmax

过拟合和正则化

  • 正则化

  • 为什么正则化能够降低过拟合

其它正则化技术

参数初始化

重温手写数字识别:代码

如何选择神经网络的超参数

其它技术

神经网络可以计算任何函数的可视化证明

两个预先声明

一个输入和一个输出的普遍性

多个输入变量

S型神经元的延伸

修补阶跃函数

结论

为什么深度神经网络的训练是困难的

梯度消失问题

什么导致了消失的梯度问题?深度神经网络中的梯度不稳定性

在更加复杂网络中的不稳定梯度

其他深度学习的障碍

深度学习

介绍卷积网络

卷积神经网络在实际中的应用

卷积网络的代码

图像识别领域中的近期进展

其他的深度学习模型

神经网络的未来







































源码:https://github.com/mnielsen/neural-networks-and-deep-learning

英文:http://neuralnetworksanddeeplearning.com/

中文:https://hit-scir.gitbooks.io/neural-networks-and-deep-learning-zh_cn/content/