我注意到,如果我的模型目录中有检查点,我标记为 warm_start 的变量正在热启动。如果已经有检查点,有没有办法不热启动?或者这与我从训练中排除这些变量的事实有什么关系?
我在自定义估计器中使用 warm_start 来初始化 inception_v4,我从中使用最后一层作为模型的输入。
ws = tf.estimator.WarmStartSettings(ckpt_to_initialize_from=self.warm_start_dir,
vars_to_warm_start='.*InceptionV4.*')
目前我也将他们排除在培训之外:
train_vars = tf.trainable_variables()
exc_vars = [var for var in train_vars if 'InceptionV4' not in var.name]
tf.contrib.tpu.TPUEstimatorSpec(mode, loss=mean_loss, train_op=optimizer.
minimize(mean_loss, global_step=tf.train.get_global_step(), var_list=exc_vars))
但我也想尝试不排除他们,这将是一个更大的问题。