重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
1、卷积层
作用:提取图像特征,学习卷积核权重,根据目标函数提取想要的特征
卷积核作用:
2、池化层
作用:
3、全连接层
作用:
神经网络函数含义:
nn.Conv2d作用提取特征
Conv2d,就是用来实现2d卷积操作的。
in_channels —— 输入的channels数
out_channels —— 输出的channels数
kernel_size ——卷积核的尺寸,可以是方形卷积核、也可以不是,下边example可以看到
stride —— 步长,用来控制卷积核移动间隔
padding ——输入边沿扩边操作
padding_mode ——扩边的方式
bias ——是否使用偏置(即out = wx+b中的b)
nn.Sigmoid()激活函数解决线性不可分的问题
nn.AvgPool2d()二维平均池化操作 特征不变性,特征降维
torch.nn.AvgPool2d(
kernel_size ,
stride=None ,
padding=0 ,
ceil_mode=False ,
count_include_pad=True ,
divisor_override=None )
kernel_size:池化核的尺寸大小
stride:窗口的移动步幅,默认与kernel_size大小一致
padding:在两侧的零填充宽度大小
ceil_mode:设为True时,在计算输出形状的过程中采用向上取整的操作
count_include_pad:布尔类型,当为True时,将在平均池化计算中包括零填充
torch.nn.Flatten(start_dim=1, end_dim=- 1)
作用:将连续的维度范围展平为张量
经常在nn.Sequential()中出现,一般写在某个神经网络模型之后,
用于对神经网络模型的输出进行处理,得到tensor类型的数据。
nn.Sequential()
一个序列容器,用于搭建神经网络的模块被按照被传入构造器的顺序添加到nn.Sequential()容器中。
model = nn.Sequential(
nn.Conv2d(1,20,5),
nn.ReLU(),
nn.Conv2d(20,64,5),
nn.ReLU()
)
nn.Linear()函数作用在全连接层
nn.Linear表示的是线性变换,原型就是初级数学里学到的线性函数:y=kx+b
nn.Linear()运行的真正的计算就是:output = weight @ input + bias
@: 在python中代表矩阵乘法
input: 表示输入的Tensor,可以有多个维度
weights: 表示可学习的权重,shape=(output_feature,in_feature)
bias: 表示科学习的偏置,shape=(output_feature)
in_feature: nn.Linear 初始化的第一个参数,即输入Tensor最后一维的通道数
out_feature: nn.Linear 初始化的第二个参数,即返回Tensor最后一维的通道数
output: 表示输入的Tensor,可以有多个维度
你是否还在寻找稳定的海外服务器提供商?创新互联www.cdcxhl.cn海外机房具备T级流量清洗系统配攻击溯源,准确流量调度确保服务器高可用性,企业级服务器适合批量采购,新人活动首月15元起,快前往官网查看详情吧