Pytorch学习笔记

叁歲伎倆 2023-06-14 11:59 104阅读 0赞
  1. nn.ReLU() 和 nn.ReLU(inplace=True)区别

inplace=True
计算结果不会有影响。利用in-place计算可以节省内(显)存,同时还可以省去反复申请和释放内存的时间。但是会对原变量覆盖,只要不带来错误就用。

  1. 详解pytorch中nn模块的BatchNorm2d()函数

https://blog.csdn.net/bigFatCat_Tom/article/details/91619977

发表评论

表情:
评论列表 (有 0 条评论,104人围观)

还没有评论,来说两句吧...

相关阅读