pytorch方法测试——激活函数(ReLU)详解

pytorch方法测试——激活函数(ReLU)详解

今天边肖给大家分享一个pytorch法测——激活函数(ReLU)的详细讲解,有很好的参考价值。希望对你有帮助。来和边肖一起看看吧。

测试代码:

进口火炬

将torch.nn作为nn导入

如果#inplace为True,输入数据将被更改;否则,原始输入不会改变,只会生成一个新的输出。

m=nn。ReLU(原地=真)

input=torch.randn(7)

打印(处理前输入图像:)

打印(输入)

输出=m(输入)

打印( ReLU输出:)

打印(输出)

打印(输出比例:)

print(output.size())

打印(输入处理过的图片:)

打印(输入)

输出为:

输入预处理图片:

张量([ 1.4940,1.0278,-1.9883,-0.1871,0.4612,0.0297,2.4300])

ReLU输出:

张量([ 1.4940,1.0278,0.0000,0.0000,0.4612,0.0297,2.4300])

输出规模:

火炬。大小([7])

输入处理过的图片:

张量([ 1.4940,1.0278,0.0000,0.0000,0.4612,0.0297,2.4300])

结论:

nn。ReLU(原地=真)

如果inplace为真,输入数据将被改变;否则,原始输入不会改变,只会生成一个新的输出。

以上pytorch方法测试——激活函数(ReLU)的详细讲解,就是边肖分享的全部内容。希望能给你一个参考,多多支持我们。

pytorch方法测试——激活函数(ReLU)详解