问题标签 [ceph]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ceph - 是否有理由不在 Ceph 设置中共享 OSD 和 Radosgw 的主机?
我正在对 Ceph 进行性能测试。我可以使用有限数量的虚拟机来执行此操作。我想要几个 radosgws,用于循环设置。如果我对 OSD 和 radosgw 使用相同的主机,我的基准测试会非常不准确吗?
kubernetes - kubernetes coreos rbd 存储类
我想在coreos下使用k8s storageclass,但是失败了
.CoreOS 版本稳定(1122.2) .Hyperkube 版本为 v1.4.3_coreos.0
coreos -kubernetes脚本部署的k8s集群,修改rkt_opts为kubelet-wrapper.md推荐的rbd
ceph 版本是宝石,我在 coreos 上安装了一个 rbd 图像,效果很好。
现在,我尝试在pods中使用pvc,参考kubernetes官方文档https://github.com/kubernetes/kubernetes/tree/master/examples/experimental/persistent-volume-provisioning
配置文件:
secret create ok,storageclass create 好像没问题,但无法描述(“StorageClass”没有实现描述),创建pvc时,状态总是pending,描述一下:
有人可以帮我吗?
ceph - Ceph:每个 OSD 的 PG 太多
我使用推荐值配置了 Ceph(使用文档中的公式)。我有 3 个 OSD,我的配置(我已经放在监控节点和所有 3 个 OSD 上)包括:
当我跑步时,ceph status
我得到:
这令人困惑有两个原因。首先,因为推荐的公式没有满足 Ceph。其次,也是最令人费解的是,它说我每个 OSD 有 1042 个 PG,而我的配置是 150。
我究竟做错了什么?
ceph - Ceph 放置混乱
我有三个 OSD,在我的 Ceph 配置中我指定:osd pool default size = 2
. /var/lib/ceph/osd/
我计算了三个 OSD 中每个 OSD占用的空间量。然后,我上传了一个大文件。之后,每个 OSD 上的空间增加了大约文件的大小。为什么对象可能被复制到所有三个 OSD 而不是两个,就像它被配置的那样?
node.js - 在 Nodejs 中使用对象存储
我对编程还是很陌生,现在正在尝试存储文件,我正在考虑使用对象存储,因为我的应用程序将存储图片和视频,但是我很难找到有关实现这一点的一些好方法的文档。如果这会改变任何东西,我也会使用 express。
有关于 Ceph 和 SUSE 的文档(我正在学习 2 个)但是我在 Node 上找不到任何东西并使用这些存储系统。任何人都可以指出一个好的方向或资源吗?
filesystems - 在 /etc/fstab 上安装 Ceph 会使我在机器重启时进入紧急模式
先决条件:
Jewel 10.2.3 操作系统:Centos 7.2
1 台管理机器名为:ceph-admin 1 台监控机器:ceph-mon1(ip:192.168.0.171) 1 元数据服务器:ceph-mds1 3 OSD:ceph-osd1 ceph-osd2 ceph-osd3
集群运行良好。
我设置了一台名为 ceph-client 的新机器。
如果我手动安装文件系统,一切正常。
我编辑 fstab 并添加以下行:
如果我想挂载 fs:
将挂载fs。
当我重新启动机器时,如果我运行 df 来查看文件系统已安装,那么问题就来了
知道发生了什么吗?
谢谢。
installation - ImportError:模块“setuptools.dist”没有“check_specifier”属性
Ceph teuthology 安装在 Ubuntu 14.04、内核 4.4.0-51-generic 上失败并出现以下错误:
kubernetes - CephFS 卷挂载失败
我已经使用 docker -multinode 配置以及 Ceph 集群成功部署了 Kubernetes 集群,并且能够使用以下命令手动挂载 CephFS 设备:
sudo mount -t ceph monitor1:6789:/ /ceph -o name=admin,secretfile=/etc/ceph/cephfs.secret
我现在正在尝试使用此处的 kubernetes 示例启动一个 pod :
当我运行时:
sudo kubectl create -f cephfs.yml
我收到以下错误:
警告 FailedMount MountVolume.SetUp failed for volume "kubernetes.io/cephfs/445ee063-d1f1-11e6-a3e3-1418776a29a6-cephfs" (spec.Name: "cephfs") pod "445ee063-d1f1-11e6-a3e3-1418776a29a6" (UID : "445ee063-d1f1-11e6-a3e3-1418776a29a6") with: CephFS: mount failed: mount failed: fork/exec /bin/mount: invalid argument 挂载参数:monitor1:6789,monitor2:6789,monitor3:6789:/data /var/lib/kubelet/pods/445ee063-d1f1-11e6-a3e3-1418776a29a6/volumes/kubernetes.io~cephfs/cephfs ceph [name=admin,secret=secret]
kubernetes manager 容器是否需要安装 ceph-fs-common 包才能成功挂载?我找不到任何进一步的调试信息来确定错误的原因。
authorization - 即时消息中的用户数据(对象)隔离
考虑我想编写一个用户可以私下发送和接收文件的即时消息应用程序。Object Stores
我知道,将图像之类的对象存储在likeCeph
或中是个好主意Minio
,但是如何限制相关用户对文件的访问?我是否需要检查对任何文件的任何请求的许可?如果是,我如何将此授权集成到Minio
or Ceph
。(Minio
首选。)
ceph - osd或者host进入fail状态的具体步骤是什么?
要详细了解遵循哪些详细步骤 - 当 osd 出现故障时?- 当主机宕机时?
为什么这两种情况都会影响 ceph 集群的性能。
提前致谢。