Pytorch中nn.Conv2d的用法

Pytorch中nn.Conv2d的用法,第1张

Pytorch中nn.Conv2d的用法 Pytorch中nn.Conv2d的用法

nn.Conv2d是二维卷积方法,相对应的还有一维卷积方法nn.Conv1d,常用于文本数据的处理,而nn.Conv2d一般用于二维图像。


先看一下接口定义:

class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

参数解释:

stride:步长

zero-padding:图像四周填0

dilation:控制 kernel 点之间的空间距离,这个看着定义有点抽象,看下面的图就理解了(图源)

groups:分组卷积

Convolution 层的参数中有一个group参数,其意思是将对应的输入通道与输出通道数进行分组, 默认值为1, 也就是说默认输出输入的所有通道各为一组。


比如输入数据大小为90x100x100x32,通道数32,要经过一个3x3x48的卷积,group默认是1,就是全连接的卷积层。


如果group是2,那么对应要将输入的32个通道分成2个16的通道,将输出的48个通道分成2个24的通道。


对输出的2个24的通道,第一个24通道与输入的第一个16通道进行全卷积,第二个24通道与输入的第二个16通道进行全卷积。


极端情况下,输入输出通道数相同,比如为24,group大小也为24,那么每个输出卷积核,只与输入的对应的通道进行卷积。


来源:https://blog.csdn.net/qq_39938666/article/details/89378096

bias:卷积后是否加偏移量

欢迎分享,转载请注明来源:内存溢出

原文地址: http://www.outofmemory.cn/zaji/587068.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-12
下一篇 2022-04-12

发表评论

登录后才能评论

评论列表(0条)

保存