我对于cnn网络的一些理解
cnn进行卷积运算的时候当从前一层卷积往下一层的时候 首先确定上一层得
到featuer map 的个数 k
然后确定当前层需要多少feature map 然后确定卷积核的大小m*n 该层
的权重矩阵等于=卷积核的维度 乘上一层feature map 的个数=mnk
每层的权值个数与上一层的featuer map 的个数有关系
该层每个神经元的输入等于=m*n乘上层某个featuer map (将所有的
featuer map 乘一遍后 加起来)
对于rgb三通道 卷积时filter时rgb三个维度的 对应相乘在相加会生成一
维的featuer map
pool过程不需要加权重只是单纯为了减小神经元个数 (一般没有参数)
卷积层和池化层的区别!!!!!!!!!!!!!!!!!!!
每一层的残差其实就是损失函数对于该层激活值的导数 (激活值时没有进
入激活函数时的值)和和权重和偏置有直接关系
一个filter=nm上一层feature map的个数(也可以自己定义) 。对应
一个偏置数b
cnn中对于每个权值都可以设置一个学习率
FEATURED TAGS
c语言
c++
面向对象
指针
容器
python
函数
数据结构
回归
损失函数
神经网络
机器学习
似然函数
极大似然
标准化
深度学习
卷积网络
参数估计
beta分布
数据处理
gradio
模型工程化
网页
模型加速工具
c++实现
变量
占位符
tensorflow
线性回归
学习tensorflow
HMM
RNN
强化学习
LSTM
pandas
不定长序列损失
pytorch
目标检测
RPN
非极大值抑制
ROIpooling
VGG16
Transformer
BERT
Python
装饰器
方法
Pytorch
FPN
图像分类
CNN
多模态
生成
GPT
Tranformer
生成模型
audio