tensorflow笔记(4)

一个简单的基于MNIST训练的CNN模型卷积神经网络包含输入层、隐藏层和输出层,隐藏层又包含卷积层和pooling层,图像输入到卷积神经网络后通过卷积来不断的提取特征,每提取一个特征就会增加一个feature map,pooling层也就是下采样,通常采用的是最大值pooling和平均值pooling,因为参数太多喽,所以通过pooling来稀疏参数,使我们的网络不至于太复杂。 好啦,既然你...

发布于 Tensorflow

TensorFlow Classification分类学习

使用MNIST实现的例子具体的实现在注释里详细说明了 import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data #添加神经层的函数,有四个参数 #输入值,输入的大小,输出的大小和激励函数 def add_layer(inputs, in_siz...

发布于 Tensorflow

tensorflow笔记(3)

加速神经网络训练(Speed Up Training)越复杂的神经网络 , 越多的数据 , 我们需要在训练神经网络的过程上花费的时间也就越多. 原因很简单, 就是因为计算量太大了. 可是往往有时候为了解决复杂的问题, 复杂的结构和大数据又是不能避免的, 所以我们需要寻找一些方法, 让神经网络聪明起来, 快起来. ####Stochastic Gradient Descent (SGD) 最...

发布于 Tensorflow

tensorflow笔记 (2)

添加一个神经层在 Tensorflow 里定义一个添加层的函数可以很容易的添加神经层,为之后的添加省下不少时间. 神经层里常见的参数通常有weights、biases和激励函数。 实现一个训练模型我会尽力在注释中详细说明,一个最简单的模型怎么训练的完整代码 #添加神经层的函数,有四个参数 #输入值,输入的大小,输出的大小和激励函数 def add_layer(inputs, insize,...

发布于 Tensorflow

tensorflow笔记(1)

激励函数(激活函数)为了神经网络实现非线性的任务,所引入的方式。激活函数并没有什么特别要选定的,只要可以「掰弯」线性函数就行。不过要确保这些激励函数必须是可以微分的,因为在 backpropagation 误差反向传递的时候,只有这些可微分的激励函数才能把误差传递回去。 ** 不过如果随便使用激励函数,在两三层的时候无所谓,但是在特别多层的时候。容易出现梯度爆炸和梯度消失的问题。** 在卷...

发布于 Tensorflow

本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。

本站由 @shyiuanchen 创建,使用 Stellar 作为主题。