问题标签 [ray]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
456 浏览

python - 如何让演员同时做两件事?

我定义 alearner和 a worker。我希望它在后台learner运行其成员函数,并偶尔发送一些信息进行打印。learnworkerlearner

下面的代码是一个例子

但是,直到完成learner才会运行,这不是我想要的。我已经想到了一种使它起作用的方法:我没有显式调用,而是调用它。具体来说,我重新定义并如下log_scorelearnLearner.learnWorkerlearnsample

虽然这可行,但现在我必须控制应该多久learn调用一次,这似乎有点多余。有没有更好的方法来实现我想要的?

0 投票
1 回答
72 浏览

python - 在子流程之间传递用户定义的对象

我有三个文件如下

如果我删除所有与ray. 如果没有,就会发生错误。错误消息说stateinlocal_buffer中没有update_buffer。我知道错误是由于在中LocalBuffer定义的worker.py——如果我定义Worker.local为内置的dict,一切都会好起来的。但是为什么我不能用LocalBuffer?我在这里确实需要它,但我不知道如何使它工作。

更新

我知道问题出在哪里。原因是workerlearner处于不同的进程中。而用户定义的对象如self.local不能在进程之间传递。对于这个特定问题,我可以通过强制转换self.localdictwhenself.local被传递给self.learner.update_buffer. 我尝试导入LocalBufferin learner.py,但没有成功。也许我必须更多地了解多处理才能弄清楚。如果有人愿意填写一些有用的信息,我将不胜感激。

0 投票
1 回答
17 浏览

ray - resnet示例的梯度同步问题

ray 提供了一个resnet 分布训练的例子。但梯度同步很奇怪:

  1. 同步权重
  2. 独立训练每个工人特定的步骤。
  3. 返回第 1 步。

这个工作流程有什么理由吗?

我认为它既不是同步也不是异步方法。

0 投票
1 回答
600 浏览

google-cloud-platform - 如何在 GCP 上设置射线项目自动缩放

我在谷歌云计算上设置光线自动缩放时遇到了真正的困难。我可以让它在 AWS 上运行没问题,但是在运行时我一直遇到以下错误ray up

googleapiclient.errors.HttpError: https://cloudresourcemanager.googleapis.com/v1/projects?alt=json 返回“服务帐户无法在没有父级的情况下创建项目。”>

我的项目是组织的一部分,所以我不明白这是从哪里来的,或者为什么首先需要创建一个项目。我已经在 yaml 文件中输入了我的项目 ID,就像我通常为 AWS 所做的那样。

非常感谢你。我很感激我能得到的任何帮助!!

0 投票
1 回答
432 浏览

python - 使用多处理有效地切片和读取图像

我有一张大卫星图像,想对其进行对象检测模型推断。目前,我对大图像进行切片,保存图块,然后读取它们以让我的模型输出检测结果(框和掩码)。我知道这是一种低效的做事方式,因为一旦读取了图像切片/图块,就不再需要它,但我目前正在将其保存到磁盘。

有没有更有效的方法来完成这个过程?也许通过多处理或光线库?

0 投票
0 回答
87 浏览

python - 即使安装后也无法导入 BayesOptSearch

我想尝试 Ray 包中的新 BayesOpt 搜索。我按照Ray 文档中的说明安装了贝叶斯优化包。

我使用 jupyter notebook 导入并启动 Tune Trials 没有问题。但即使我安装了必要的软件包,它仍然说它无法导入。

我试过这个:

安装在带有 python 3.6.5 的 pyenv 中,我检查了 10 次是否是我安装它的正确环境。

有什么建议我缺少什么吗?

0 投票
2 回答
3750 浏览

python - 如何在 Ray 中使用 python 日志记录?

我在主函数/进程中使用了日志模块,它运行良好,但在Actor进程/子进程中似乎无法运行。如何让它发挥作用?在下面的代码示例中,logging.info 在主进程中工作,但在工作进程中失败。谢谢。

0 投票
1 回答
1242 浏览

python - 使用 ray 创建 actor 时,是否应该将 `inter_op_parallelism_threads` 和 `intra_op_parallelism_threads` 设置为 1?

当我在A2C中使用ray创建actors和learner时,应该设置inter_op_parallelism_threadsand intra_op_parallelism_threadsto 1,还是默认保留?

0 投票
1 回答
1293 浏览

ray - 如何评估在 rllib (Ray) 中自定义环境中训练的演员?

按照SimpleCorridor示例,我可以创建自己的环境并训练模型!好的。但是当我尝试评估这个经过训练的模型时,rllib 无法识别我的自定义环境。

如何在自定义环境中评估经过训练的模型?

当我像这里rllib rollout ...建议的那样使用它时,它无法识别我的环境,因为它是自定义环境。我希望有一个类似但喜欢的功能,所以我可以在我的一个文件中的项目上调用它。run_experimentsevaluate_experiment

这就是问题所在。如果你想看看我的 custon_env 是这个

现在我必须复制我的环境并将其粘贴到gym/envs/包目录中并将其注册到__init__.py文件中。

很高兴看到另一种方法来做到这一点

谢谢

0 投票
1 回答
238 浏览

ray - 如何使用每个工作人员一个环境并行执行环境?

我们构建了一个由 Docker 容器组成的系统,每个容器都运行 Ray。一个容器充当头,其他容器充当工人。有没有一种方法可以并行运行我们自定义 env 的步骤,而每个容器每个工作人员一个 env 正在运行?Rays 文档 ( https://ray.readthedocs.io/en/latest/rllib-env.html?highlight=remote_worker_envs#vectorized ) 中提到的方法对我们没有用,因为我们希望每个工作人员都有一个环境。