问题标签 [ray-tune]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-3.x - 如何在 Ray Tune 中定义与搜索算法无关的高维搜索空间?
我有两个关于Ray Tune的问题。首先,我如何定义一个独立于特定SearchAlgorithm
使用的超参数搜索空间。例如,HyperOpt 使用类似的东西,'height': hp.uniform('height', -100, 100)
而 BayesOpt 使用类似的东西'width': (0, 20)
;是否有一些通用接口或 API?
其次,我希望能够使用shape
参数定义超参数搜索空间,类似于定义 numpy 数组。我想要类似的东西'heights': hp.uniform('height', -100, 100, shape=(10,))
。有没有办法做到这一点?
ray - 您可以为调度程序与一般调整试验使用不同的停止条件吗
在 Ray Tune 中,对于调度程序和试验是否可以使用不同的停止条件,是否有任何指导?下面,我有一个基于 停止的异步超频带调度程序neg_mean_loss
,并基于 调整自身停止mean_f1
。
我应该对两者都使用相同的还是没关系?
ray - 如何将完整的 `local_dir` (`~/ray_results`) 与头节点同步?
我正在我的作业中创建自定义结果文件,并希望将它们从工作节点同步到头节点(稍后将它们同步到我的本地计算机)。我试图将它们全部写入local_dir
eg~./ray_results
但不幸的是,ray tune 似乎只同步local_dir
. 它是否正确?
python - 向 Ray Tune 状态表添加更多指标(Python、PyTorch)
在一组配置上运行tune.run()
以进行搜索时,是否可以向正在打印的状态表添加更多指标列(即,等)a
?b
将给出下表,其中不包含指标a
和列b
:
tune.track.log()
我们如何为传递给除 之外的每个指标包含一列mean_accuracy
?
使用 Python 3.7.3 和 Ray 0.8.4
python - 更改 Ray RLlib Training 的 Logdir 而不是 ~/ray_results
我正在使用 Ray & RLlib 在 Ubuntu 系统上训练 RL 代理。Tensorboard 用于通过将其指向~/ray_results
存储所有运行的所有日志文件的位置来监控训练进度。未使用 Ray Tune。
例如,在开始新的 Ray/RLlib 训练运行时,将在以下位置创建一个新目录
为了可视化训练进度,我们需要使用 Tensorboard 启动
问题:是否可以配置 Ray/RLlib 将日志文件的输出目录从~/ray_results
另一个位置更改?
DQN_ray_custom_env_2020-06-07_05-26-32djwxfdu1
另外,我们可以自己设置这个目录名称,而不是登录到名为类似的目录吗?
尝试失败:尝试设置
在运行之前ray.init()
,但结果日志文件仍在被写入~/ray_results
。
machine-learning - 将 Ray-Tune 与 sklearn 的 RandomForestClassifier 结合使用
将不同的基础和文档示例放在一起,我设法想出了这个:
它运行,我能够在一切结束时获得最佳配置。但是,我的疑问主要在于objective
功能。我写的正确吗?没有我能找到的样本
跟进问题:
num_samples
配置对象中有什么?是从每次试验的整体训练数据中提取的样本数量吗?
python-3.x - Ray Tune 随机搜索无限多个样本
说明问题的代码示例:
我面临的问题是,在开始执行第一次试验之前,tune.run
调用将强制采样搜索空间时间。num_samples
问题:是否可以在每次试用后制作 Tune 样本搜索空间?
可以使用wrapper around search algorithm来限制tune.suggest.Searcher
-descendant 算法(AxSearch
例如)的并发试验次数。ConcurrencyLimiter
但是我怎样才能为随机搜索做到这一点?
python-3.x - 如何使 ray.tune.run 可重现?
我正在使用 Tune基于类的 Trainable API。请参阅代码示例:
问题是tune.run
结果仍然不同,可能的原因是每个射线演员仍然有不同的种子。
问题:如何使ray.tune.run
可重现?
ray - 射线调谐试验的检查点最佳模型
所以我只是做了一个tune
实验,得到了以下输出:
但是当我查看单个结果时,我发现对于第三次试验trainable_137ecd98
(
如果我想检查点并报告给定试验达到的最高精度(或最佳其他指标),用户是否打算跟踪best_metric
每次试验,并在best_metric
更新时编写自定义检查点?
我看到有一个checkpoint_at_end
选项tune.run
,但最常见的用例不是checkpoint_if_best
因为试验的最后一次训练迭代很少是最好的吗?
谢谢!
pytorch - 使用 ray tunes 训练 pytorch 模型时,类型“NoneType”不是可迭代错误 可训练 API
我编写了一个简单的 pytorch 脚本来训练 MNIST,它运行良好。我重新实现了我的脚本以使用 Trainable 类:
但是,当我尝试运行时,这次它失败了:
这可能是什么原因?