问题标签 [ceph]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
openstack - 带有 ceph 后端的 Openstack swift (radosgw)
我正在尝试使用 radosgw 将 Openstack (liberty) swift 与 Ceph (Jewel) 一起使用。目的是对象应该存储在 ceph osds 下。我有一个可用的 Openstack 和 Ceph 集群。
为了使用 Ceph 作为对象存储后端,我在 ceph cluster 中安装并配置了 radosgw。在 openstack 节点中,我安装了“python-swiftclient”,创建了一个对象存储服务并使用 radosgw 的 URL 为该服务添加了一个端点。
我按照下面链接中的说明进行操作。 http://docs.ceph.com/docs/jewel/radosgw/keystone/
头文件
Openstack 端点
从命令行输出 swift list
从命令行输出 swift stat
当我尝试访问 openstack 仪表板中的对象存储 - 容器时,出现以下错误。 http://pastebin.com/ALevYCX8
object - ceph 的 OSD 使用什么文件系统
每个人。
根据 Sage A. Weil 的论文,Ceph 使用 EBOFS 作为其 OSD 的文件系统。但是,我查看了 Ceph 的源代码,几乎找不到任何 EBOFS 的代码。Ceph 是否仍在使用 EBOFS 或已选择为单个 OSB 使用其他类型的文件系统?
谢谢:-)
storage - Ceph 每个 osd 的 pgs 太多:所有你需要知道的
我同时遇到这两个错误。我无法减少 pg 数,也无法添加更多存储空间。
这是一个新集群,当我向它上传大约 40GB 时收到这些警告。我猜是因为 radosgw 创建了一堆池。
如果 pgs 建议太少,ceph 怎么可能每个 osd 有太多的 pg,但每 pg 的对象却多于平均水平?
使用 rbd 和 radosgw,没什么特别的。
kubernetes - 在 kubernetes + coreos 中挂载 RDB 卷
我正在尝试在 CoreOS 下 kubernetes 创建的 pod 中安装 ceph RDB 卷。
- CoreOS 版本为
beta (1153.4.0)
- Hyperkube 版本是
v1.3.7+coreos.0
- ceph版本是
jewel
是否使用此 POD:
如果我启动这个 pod,它会被创建但保持状态:ContainerCreating
问题是 pod 似乎无法创建 rbd 设备。
如果我连接到已部署 pod 的节点并使用rbdmap命令创建 rbd 设备(在主机上),则创建设备并且 pod 可以挂载卷。然后 pod 的状态切换到Running
如果我删除 pod,则会自动删除 rbd 设备。
恢复,可能是什么问题导致 kubernetes 无法创建 rbd 设备。
ceph - 我需要在每个 Ceph 节点上都有一个配置文件吗?
我从不同的来源得到不同的东西。起初我以为我可以只有一个配置文件(在监视器上),每个节点都有部分(包括 osd 节点)。但是在新的OSD上,ceph osd create
失败了,说没有配置文件。
那么,ceph的配置结构是如何工作的呢?此外,每个配置文件中的 FSID(一个 UUID)是否相同?
ceph - CEPH,通过 Internet 运行集群
在 Internet 上运行 CEPH 集群时是否存在安全问题?
我无法直接找到使其无法用于此用例的东西。我不需要低 I/O 响应时间,我很好。
多谢你们。
ceph - 在 APT 存储库关闭时使用 ceph-deploy
当 download.ceph.com 网站/repo 关闭时,使用ceph-deploy install ...
失败。有没有办法从镜像安装?在文档中您可以看到--repo-url
选项,但它似乎仍然从 download.ceph.com 下载。见下文:
ceph - Ceph 池已删除,但文件仍在列表中
我通过 Rados-gw 填满了我的 OSD,我唯一能做的就是让 Ceph 再次工作,就是删除占用所有房间的池,然后重新创建它。然而,当我列出所有池的内容(使用boto
)时,它会显示所有存在的文件(磁盘空间已释放,因此这些文件实际上不再存在。)
是什么导致了这种不一致?
ceph - 在 Ceph 中删除文件不会释放空间
我正在使用 Ceph,通过 radosgw 上传许多文件。之后,我想删除文件。我正在尝试在 Python 中做到这一点,如下所示:
之后,我bucket.list()
用来列出存储桶中的文件,这表示存储桶现在是空的,正如我所期望的那样。
但是,当我ceph df
在 mon 上运行时,它显示 OSD 仍然具有很高的利用率(例如%RAW USED 90.91
)。如果我继续写(认为状态数据还没有赶上状态),Ceph 基本上会锁定(100% 利用率)。
这是怎么回事?
注意:我确实有这些突出ceph status
:
根据我在网上收集的信息,这不会导致我的特定问题。但我是 Ceph 的新手,可能是错的。
我有一个 mon 和 3 个 OSD。这只是为了测试。
openstack - Ceph 设置默认条带计数条带单元
目前我有一个 OpenStack 环境,其中 Ceph 作为 Cinder 的后端存储驱动程序。
我查看了 cinder 文档和代码,但找不到任何值或选项来设置 rbd 卷的默认 stripe_unit 或 stripe_count。
我想这样做的原因是我想让我的卷条带化。
是否可以在 ceph.conf 中设置默认的 stripe_count 和 stripe_unit ?
我试图将以下内容添加到 ceph.conf 的 [client] 部分,但它不起作用 rbd stripe-count N rbd stripe-unit N
有什么建议吗?