我正在finetuning
使用. 使用 a , , , , , ,在迭代中减少和减少非常好。Caffe
Tesla K40
batch size=47
solver_type=SGD
base_lr=0.001
lr_policy="step"
momentum=0.9
gamma=0.1
training loss
test accuracy
2%-50%
100
当使用RMSPROP
,ADAM
和等其他优化器时ADADELTA
,即使在迭代后training loss
也几乎保持不变并且没有改进。test accuracy
1000
对于,我已经更改了此处RMSPROP
提到的相应参数。
对于,我已经更改了此处ADAM
提到的相应参数
对于,我已经更改了此处ADADELTA
提到的相应参数
有人可以告诉我我做错了什么吗?