接下来是激活函数,之前 CNN 中 relu 是标配,咱们为了向 Swin 看齐学习,换成 gelu,和 Transformer 一样激活函数少一点 不只是激活函数,norm 也换,从 bn 换成 ln 就这样,ConvNeXt Block 诞生了!!! PS:这一点就很工程化,它也没有详细从原理说为啥这样好,咱也不知道咱也不敢问,性能提升就行了 下采样层
有時可以作為value object或dto(Data Transform Object)來使用.當然,如果你有一個簡單的運算屬性也是可以...
接下来是激活函数,之前 CNN 中 relu 是标配,咱们为了向 Swin 看齐学习,换成 gelu,和 Transformer 一样激活函数少一点 不只是激活函数,norm 也换,从 bn 换成 ln 就这样,ConvNeXt Block 诞生了!!! PS:这一点就很工程化,它也没有详细从原理说为啥这样好,咱也不知道咱也不敢问,性能提升就行了 🎯 下采样...
接下来是激活函数,之前 CNN 中 relu 是标配,咱们为了向 Swin 看齐学习,换成 gelu,和 Transformer 一样激活函数少一点 不只是激活函数,norm 也换,从 bn 换成 ln 就这样,ConvNeXt Block 诞生了!!! PS:这一点就很工程化,它也没有详细从原理说为啥这样好,咱也不知道咱也不敢问,性能提升就行了 🎯 下采样...