考虑到这个 colab notebook 是 TF-Agents 实际工作方式的一个非常简单的版本。实际上,您应该使用 Driver 来采样轨迹,而不是手动调用
agent.action(state)
env.step(action)
在每次迭代中。Driver 的另一个优点是它可以轻松兼容 TF-Agents 中的所有指标。
至于你的问题是如何:
在培训开始时,定义一个 summary_writer ,如下所示:
train_dir = os.path.join(root_dir, 'train')
train_summary_writer = tf.summary.create_file_writer(
train_dir, flush_millis=10000)
train_summary_writer.set_as_default()
现在每次调用 agent.train 时,它都会刷新到这个摘要编写器及其 tensorboard 文件夹train_dir
。
要将一些指标添加到组合中,只需使用以下内容定义它们:
train_metrics = [
tf_metrics.NumberOfEpisodes(),
tf_metrics.EnvironmentSteps(),
tf_metrics.AverageReturnMetric(buffer_size=collect_episodes_per_epoch),
tf_metrics.AverageEpisodeLengthMetric(buffer_size=collect_episodes_per_epoch),
]
将它们与您的重播缓冲区一起作为观察者传递给驱动程序,如下所示:
dynamic_episode_driver.DynamicEpisodeDriver(
tf_env,
collect_policy,
observers=replay_observer + train_metrics,
num_episodes=collect_episodes_per_epoch).run()
在此之后将它们记录到您的摘要中:
for train_metric in train_metrics:
train_metric.tf_summaries(train_step=epoch_counter, step_metrics=train_metrics[:2])
如果您想知道,step_metrics
参数是将最后两个指标与前两个指标进行对比。