博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
tensorflow学习之路-----卷积神经网络个人总结
阅读量:4554 次
发布时间:2019-06-08

本文共 1066 字,大约阅读时间需要 3 分钟。

卷积神经网络大总结(个人理解)

 

神经网络

1、概念:从功能他们模仿真实数据

2、结构:输入层、隐藏层、输出层。其中隐藏层要有的参数:权重、偏置、激励函数、过拟合

3、功能:能通过模仿,从而学到事件

其中过拟合:电脑太过于自信,想把所有的数据都模拟下来。但是这并不符合我们的实际的需求

激励函数:激活某一些参数

 

卷积神经网络:

1、一般的结构:输入数据、卷积层、池化层、卷积层、池化层、全连接层、全连接层、误差分析、参数优化、显示精确度

2、每一个层的要求:

                 输入数据:类型:[-1(表示能接受任意张图片),图片的长度,图片的宽度、图片的灰度级]

                 卷积层  :fittler滤波器:意义:扫描图片,得到一个数值。类型:[卷积核的长度,卷积核的宽度,图片的灰度值,特征映射值(厚度)]其中的1,1是给定。卷积函数:输入数据、滤波器、步长(类型[1,图片左右移动的步数,图片上下移动的步数,1],padding=”扫描的方式”

                 卷积得到的数据,可以用tf.nn.Rule的激励函数激励

                 池化层:池化函数的参数:卷积层1激励后的数据,池化窗口的大小(shape[1,长,宽,1],步长(shape[1,向左右移动的步数,上下移动的步数,1],padding=“扫描的方式”

                 卷积层2:参数个数一样,但是输入的数据是池化1输出的数据,卷积核我们也可以定义,其他的都一样

                 池化层:变化最大的是输入的数据数卷积层2输出的数据

                 全连接神经元:输入的数据是池化2输出的数据,要记得重新设定类型。隐藏层:权重,偏置。。。隐藏层输出的数据可以过拟合和tf.nn.relu激励函数

                 全连接神经元2:类似全连接神经元。但是这一层的输出数据要用到tf.nn.softmax激励函数

                  误差分析、优化:cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_data * tf.log(prediction),

                                              reduction_indices=[1]))

train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)交叉商

                   计算精确值函数

 

其他:

1、其中每一层的卷积层和池化层都是讲特征映射的更加详细,具体有用

2、池化层在实际应用中用来抵抗输入的轻微形变或者位移

3、全连通层的工作原理是根据之前其它层的输出,检测哪些特征与特定的 类别相匹

转载于:https://www.cnblogs.com/MyUniverse/p/9445397.html

你可能感兴趣的文章
JS中 reduce() 的用法
查看>>
JS中的逻辑运算符&&、||,位运算符|,&
查看>>
vue-resource和axios区别
查看>>
Vue.js中 watch(深度监听)的最易懂的解释
查看>>
Three.js加载gltf模型
查看>>
js中的web加密
查看>>
关于各种文件用Editplus的方式打开出现“向程序发送命令时出现问题”的解决方法...
查看>>
[Codeforces261D]Maxim and Increasing Subsequence——树状数组+DP
查看>>
理解API和SDK的区别
查看>>
64. [Mcoi2018]终末之诗(上)
查看>>
关于进程的上下文切换
查看>>
你不知道的JS(作用域和闭包)
查看>>
[恢]hdu 1164
查看>>
vs2013 安装boost1.59
查看>>
[恢]hdu 2503
查看>>
调用动态库时声明的参数个数不一致导致的问题
查看>>
003 Python与类C语言的区别(未完)
查看>>
tomcat eclipse mysql 安装
查看>>
Linux查看CPU和内存使用情况[转]
查看>>
Delegte的BeginInvoke
查看>>