我正在寻找一种实现学习率搜索的方法,如下所述:https ://arxiv.org/pdf/1506.01186.pdf 。
为了实现这一点,我需要有一种方法可以在单个 epoch 中获得多个学习率的损失。我正在考虑创建一个 SessionRunHook 并简单地从每个步骤的损失中取平均值,这并不准确,因为最后一步很可能没有元素的 batch_size 但它应该足够好。
您是否实施过这样的 SessionRunHook 或知道如何在训练期间访问损失或/和批量大小。
我正在寻找一种实现学习率搜索的方法,如下所述:https ://arxiv.org/pdf/1506.01186.pdf 。
为了实现这一点,我需要有一种方法可以在单个 epoch 中获得多个学习率的损失。我正在考虑创建一个 SessionRunHook 并简单地从每个步骤的损失中取平均值,这并不准确,因为最后一步很可能没有元素的 batch_size 但它应该足够好。
您是否实施过这样的 SessionRunHook 或知道如何在训练期间访问损失或/和批量大小。
我想出的是这个,它不考虑最后一个可以更小的小批量,但由于我没有运行整个训练集,它应该没问题:
class RecordLossHook(tf.train.SessionRunHook):
def __init__(self, loss_name):
self.loss_name = loss_name
def begin(self):
self._loss_tensor = tf.get_default_graph().as_graph_element(self.loss_name+":0")
self.loss_summed = 0
self.batch_count = 0
def before_run(self, run_context):
return tf.train.SessionRunArgs(self._loss_tensor)
def after_run(self, run_context, run_values):
self.loss_summed += run_values.results
self.batch_count += 1
self.loss = self.loss_summed/self.batch_count
但是,如果有人有更好的钩子来解释最后一个小批量,我很乐意接受这样的答案。
也许这样的事情也会起作用:
epoch_loss = tf.Variable(0, trainable=False, dtype=tf.float32)
update_epoch_loss = tf.assign_add(epoch_loss, loss_op)
reset_epoch_loss = tf.variables_initializer([epoch_loss])
for epoch in num_epochs:
sess.run(reset_epoch_loss)
for step in steps_per_epoch:
sess.run([train_op, update_epoch_loss])
this_epoch_loss = sess.run(epoch_loss)