问题标签 [openstack-cinder]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
owncloud - OpenStack (Swift) 或 CEPH 重复数据删除功能?或任何重复数据删除 HA 存储集群解决方案?
对于 owncloud(或 nextcloud)项目,我们需要添加大量存储,我一直在检查所有选项,例如:CEPH、Openstack Swift/Cinder、GlusterFS、SDFS 和 Tahoe-lafs。
有了这项服务,我们希望用户添加许多相同的文件,这就是重复数据删除对我们来说非常重要的原因。到目前为止,集群存储数据重复数据删除的唯一解决方案是 SDFS 和 Tahoe-lafs。然而,我们担心这两个是 Java 和 Python,它们会对 CPU 造成很大的伤害。(*是的,重复数据删除也可能意味着更多的 RAM 和 CPU)
也许你们中的一个人有更好的解决方案?*重复数据删除文件系统(例如 ZSF)将无法工作,因为数据存储在多台机器(HA 集群)上。
kubernetes - kubernetes 1.7 - 动态卷插件 openstack
我无法使煤渣卷插件工作。我使用 kubeadm 1.7。
由于缺少文档,并且有关动态卷配置的所有问题都没有得到解答,我想知道是否有人已经成功使用它?
我用--cloud-provider=openstack
和修改了每个 kubelet --cloud-config/etc/cloud.conf
。我在每个节点上都安装了 cinder 和 nova。我必须做其他事情吗?
谢谢你的帮助
openstack - Openstack:无法从图像创建卷(空间问题)
我正在尝试将 CentOS7 映像转换为卷,该卷已创建但它是空的并且我收到此错误
如您所见,我有临时图像转换的空间,图像是〜8go
最新的集群。
有任何想法吗 ?
谢谢
authentication - 用于独立 Openstack Cinder 服务的自定义身份验证中间件
我正在尝试建立一个独立的煤渣服务。我想构建一个自定义身份验证中间件并使用它而不是 Keystone。有谁知道任何博客文章、文章等记录了构建自定义身份验证并将其与 Openstack 服务一起使用的过程?
yaml - Openstack heat:将卷作为 HEAT 模板的一部分附加时的堆栈删除行为
我有一个 HEAT 模板,我在其中创建一个服务器实例并将 CINDER 卷与该实例附加。CINDER 卷是手动创建的,并且 cinder_instance_id 作为 HEAT 模板中的环境变量传递。
现在,当我删除堆栈时,它会删除服务器实例,但不会删除 CINDER 卷。
因为,我认为这是正确的行为,因为我们没有创建卷作为 OpenStack HEAT 模板的一部分,我们无法删除卷作为堆栈删除的一部分。
同样适用于网络。我们将要启动服务器实例的网络 ID 传递给 HEAT 模板。当我们删除我们的堆栈时,这个网络不会被删除。
假设我的理解是正确的,我找不到任何提到这种行为的官方文件。这是正确的行为吗?如果是,在哪里提到?
openstack - 在 openstack 上创建 Cinder 卷失败
以下是 的输出heat-engine.log
。它说 ResourceInError: resources.sdc_volume_data: 由于“未知”而进入状态错误
请告诉错误的原因可能是什么。
kubernetes - OpenStack magnum Kubernetes 集群配置问题
有没有人在通过 devstack / Magnum 建立集群后最近部署了 k8s 应用程序?
使用 devstack(最新)我已经在 OpenStack 上成功部署了一个 K8s 集群。这是在运行 Ubuntu 18.04 的单个裸机服务器上。
在尝试集群时,我遇到了配置问题。我试图确定我哪里出错了,想知道是否还有其他人看到 magnum k8s 集群和 cinder 卷的动态配置问题?
K8s 版本:
配置问题:首先,Kubernetes 中没有创建默认存储类。当我使用 helm 部署一些简单的东西(稳定/mariadb)时,持久卷声明从未被绑定。事实证明,这是 magnum 的一个已知问题,有待修复。
我使用 kubectl 创建了一个默认值:
在那之后,PVC 仍然处于未决状态,但是当我在其中运行 describe 时,我可以看到一个错误:
查看 kube-controller-manager 进程,它没有通过 cloud-provider 或 cloud-config 命令行参数:
即使这些参数是通过 magnum/heat/cloud-init 写入 /etc/kubernetes/controller-manager 的:
从 cloud-init 输出日志和“原子容器列表”中,我可以看到控制器管理器是从 docker 映像启动的。事实证明,图像是使用 /usr/bin/kube-controller-manager.sh 脚本运行的。查看图像 rootfs 此脚本正在删除 -cloud-config / -cloud-provider 参数:
知道为什么图像会这样做吗?
为了取得进展,我注释掉了两条 sed 行并重新启动。然后我可以验证这些过程是否具有预期的参数。日志文件显示它们已被拾取(并抱怨它们已被弃用)。
现在,当我尝试通过 helm 安装 MariaDB 时,我收到一个错误,即卷分配调用失败并显示 400:
来自 /var/log/syslog cinder 正在抱怨,但未提供任何其他信息:
这里参考的是主 MariaDB pod 的卷配置:
任何对错误的见解将不胜感激。
kubernetes - Kubernetes 将 cinder 存储与 pod 关联起来
我有一个 K8 集群,需要将我的 pod 与 cinder 存储选项相关联。我尝试了两种选择,但都失败了。任何人都可以阐明正在发生的事情吗?
选项1: 在 OpenStack 中手动创建卷并将其集成到我的 yaml 文件中。Kubectl describe on pod 显示以下错误
YAML 文件:
Option2: 新建一个存储类,新建一个PV,PVC。这会在 OpenStack 中创建一个新卷,它也会出现在我的 K8 集群中。
将声明关联到 yaml 文件:
YAML 文件:
openstack - 在 openstack 上创建 Cinder 卷失败:未找到有效主机
我将此作为问题发布,以报告我遇到的其他问题似乎未涵盖的问题(和解决方法)。它可能非常特定于我正在使用的软件设置,但如果它有帮助......
这是在已成功运行多年的单节点配置上(Ubuntu 12.04、Havana OpenStack),但这是我一段时间以来第一次尝试创建新的 VM 映像。
我运行的命令是这样的:
之后我看到了这个卷状态:
Cinder 日志文件(我认为是/var/log/cinder/cinder-scheduler.log
)显示了这一点:
特别注意:Failed to schedule_create_volume: No valid host was found.
并且服务列表确认该服务没有运行。
鉴于该系统以前可以正常工作,并且现有的虚拟机仍然可以正常工作,这是怎么回事?谷歌搜索没有发现任何修复。