实验结果对比.png 分析上面的结果,基本接近论文的实验结果,说明了该论文实验结果的可重复性。从深入回归任务部分的代码,可以看出maml模型(gradient by gradient)相较于预训练模型,得到了更优的模型初始化参数。 文中还提到了一阶求导和二阶求导的性能对比 一阶导&二阶导.png 公式推导.png 从性能对比来看,二
复现maml论文模型-1 论文为:Finn C, Abbeel P, Levine S, et al. Model-agnostic meta-learning for fast adaptation of deep networks[C]. international conference on machine learning, 2017: 1126-1135. 代码地址(tensorflow版本):https://github.com/cbfinn/maml 复现这个词,有两点不太好,但我暂时想不...
y):# 计算均方误差(同maml论文),keras_backend.mean(x):具有x元素均值的张量returnkeras_backend.mean(keras.losses.mean_squared_error(y,pred_y))defcompute_loss(model,x,y,loss_fn=loss_function):#