问题标签 [ray]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何让演员同时做两件事?
我定义 alearner
和 a worker
。我希望它在后台learner
运行其成员函数,并偶尔发送一些信息进行打印。learn
worker
learner
下面的代码是一个例子
但是,直到完成learner
才会运行,这不是我想要的。我已经想到了一种使它起作用的方法:我没有显式调用,而是调用它。具体来说,我重新定义并如下log_score
learn
Learner.learn
Worker
learn
sample
虽然这可行,但现在我必须控制应该多久learn
调用一次,这似乎有点多余。有没有更好的方法来实现我想要的?
python - 在子流程之间传递用户定义的对象
我有三个文件如下
如果我删除所有与ray
. 如果没有,就会发生错误。错误消息说state
inlocal_buffer
中没有update_buffer
。我知道错误是由于在中LocalBuffer
定义的worker.py
——如果我定义Worker.local
为内置的dict
,一切都会好起来的。但是为什么我不能用LocalBuffer
?我在这里确实需要它,但我不知道如何使它工作。
更新
我知道问题出在哪里。原因是worker
和learner
处于不同的进程中。而用户定义的对象如self.local
不能在进程之间传递。对于这个特定问题,我可以通过强制转换self.local
为dict
whenself.local
被传递给self.learner.update_buffer
. 我尝试导入LocalBuffer
in learner.py
,但没有成功。也许我必须更多地了解多处理才能弄清楚。如果有人愿意填写一些有用的信息,我将不胜感激。
google-cloud-platform - 如何在 GCP 上设置射线项目自动缩放
我在谷歌云计算上设置光线自动缩放时遇到了真正的困难。我可以让它在 AWS 上运行没问题,但是在运行时我一直遇到以下错误ray up
:
googleapiclient.errors.HttpError: https://cloudresourcemanager.googleapis.com/v1/projects?alt=json 返回“服务帐户无法在没有父级的情况下创建项目。”>
我的项目是组织的一部分,所以我不明白这是从哪里来的,或者为什么首先需要创建一个项目。我已经在 yaml 文件中输入了我的项目 ID,就像我通常为 AWS 所做的那样。
非常感谢你。我很感激我能得到的任何帮助!!
python - 使用多处理有效地切片和读取图像
我有一张大卫星图像,想对其进行对象检测模型推断。目前,我对大图像进行切片,保存图块,然后读取它们以让我的模型输出检测结果(框和掩码)。我知道这是一种低效的做事方式,因为一旦读取了图像切片/图块,就不再需要它,但我目前正在将其保存到磁盘。
有没有更有效的方法来完成这个过程?也许通过多处理或光线库?
python - 即使安装后也无法导入 BayesOptSearch
我想尝试 Ray 包中的新 BayesOpt 搜索。我按照Ray 文档中的说明安装了贝叶斯优化包。
我使用 jupyter notebook 导入并启动 Tune Trials 没有问题。但即使我安装了必要的软件包,它仍然说它无法导入。
我试过这个:
安装在带有 python 3.6.5 的 pyenv 中,我检查了 10 次是否是我安装它的正确环境。
有什么建议我缺少什么吗?
python - 如何在 Ray 中使用 python 日志记录?
我在主函数/进程中使用了日志模块,它运行良好,但在Actor进程/子进程中似乎无法运行。如何让它发挥作用?在下面的代码示例中,logging.info 在主进程中工作,但在工作进程中失败。谢谢。
python - 使用 ray 创建 actor 时,是否应该将 `inter_op_parallelism_threads` 和 `intra_op_parallelism_threads` 设置为 1?
当我在A2C中使用ray创建actors和learner时,应该设置inter_op_parallelism_threads
and intra_op_parallelism_threads
to 1
,还是默认保留?
ray - 如何评估在 rllib (Ray) 中自定义环境中训练的演员?
按照SimpleCorridor示例,我可以创建自己的环境并训练模型!好的。但是当我尝试评估这个经过训练的模型时,rllib 无法识别我的自定义环境。
如何在自定义环境中评估经过训练的模型?
当我像这里rllib rollout ...
建议的那样使用它时,它无法识别我的环境,因为它是自定义环境。我希望有一个类似但喜欢的功能,所以我可以在我的一个文件中的项目上调用它。run_experiments
evaluate_experiment
这就是问题所在。如果你想看看我的 custon_env 是这个
现在我必须复制我的环境并将其粘贴到gym/envs/
包目录中并将其注册到__init__.py
文件中。
很高兴看到另一种方法来做到这一点
谢谢
ray - 如何使用每个工作人员一个环境并行执行环境?
我们构建了一个由 Docker 容器组成的系统,每个容器都运行 Ray。一个容器充当头,其他容器充当工人。有没有一种方法可以并行运行我们自定义 env 的步骤,而每个容器每个工作人员一个 env 正在运行?Rays 文档 ( https://ray.readthedocs.io/en/latest/rllib-env.html?highlight=remote_worker_envs#vectorized ) 中提到的方法对我们没有用,因为我们希望每个工作人员都有一个环境。