还有就是 cross validation,由于是 4-fold,我每次重新划分训练集和验证集,具体的可以先把所有的训练资料存起来,然后每一轮训练的时候重新划分。 这样跑几轮,大概 2、3 个小时(当时我让epoch=25epoch=25),就跑出来 private 0.77 / public 0.79(所以后来四天我就让 public 提升了 0.02?) 感觉到 strong baseline...
kaggle提交: ML2023Spring-hw3 | Kaggle 以上可能需要科学上网 题目解答 simple baseline(0.63733) 拿到代码跑一遍 medium baseline(0.70000) 图像的数据增强 没做数据增强的训练Acc图(不是Loss,没改标题) 做了数据增强 数据增强是提分的关键 这里有一个小trick,原始的代码跑的时间很久,目前要大概40~50秒,但是GPU...
使用ResNet网络,如果不设置weight=None, 则可以很容易达到Strong要求。 在设置不使用预训练模型时,我使用了多种ResNet版本,均未达到预期。 boss 把几个常见模型进行交叉训练,最后Ensemble: 什么是交叉训练? 将所有用以训练的数据分为4份,选其中1个作为测试集,3个作为训练集,训练一次。如此迭代4次,使得每一个组...
kernel_size, stride, padding)#in_channels:输入图像通道数,out_channels:卷积产生的通道数(卷积核个数) kernel_size:卷积核尺寸#stride:卷积步长,默认为1, padding:填充操作#torch.nn.MaxPool2d(kernel_size, stride, padding
3. 提高数据变换复杂度(0.77-->0.82)。4. 在网格训练过程中,从200个epoch左右开始达到0.805,至300个epoch时达到0.82的最优结果。5. 使用预定义的CNN模型,结合dropout和更深的网络结构。6. 加大训练量,以实现更好的泛化能力(0.82-->0.82)。在进一步的数据增强中,通过增加图像增强的...
李宏毅深度学习2020hw3 李宏毅 svm 半监督学习 1、什么是Semi-Supervised 2、Semi-Surpervised在生成模型中如何实现的(EM算法) 3、Semi-Surpervised基于Low-density Separation(低密度分离)假设是如何实现的 1)Self-training方法+Entropy-based Regularization
李宏毅hw3 - - L三岁李的小天使吖于20200220发布在抖音,已经收获了34.6万个喜欢,来抖音,记录美好生活!
import numpy as np paddle.disable_static x_numpy=np.array([[2.5,2.5],[2.5,2.5],[2.5,2.5]]) x_paddle=paddle.to_tensor(x_numpy) data=fluid.layers.fill_constant(shape=[3, 2],value=2.5,dtype='float64') x_paddle=fluid.layers.create_tensor(dtype='float64') fluid.layers.assign(data,x...
(1)回顾【李宏毅机器学习CP21】(task6)卷积神经网络,CNN强大在于卷积层强大的特征提取能力,当然我们可以利用CNN将特征提取出来后,用全连接层或决策树、支持向量机等各种机器学习算法模型来进行分类。 (2)Pytorch的vision库:https://github.com/pytorch/vision ...
李宏毅机器学习HW3(CNN) 2020-09-25 23:25 −... Kayden_Cheung 0 1591 CNN 2019-12-10 17:37 −CNN Nets ResidualNet 残差网络及其变休 Residual Network and Latest Changes Train Residual Network for image Classification 卷积网络之Batch Normalization Normaliza... ...