问题标签 [opennebula]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
libvirt - opennebula libvirt 实时迁移失败
从 sunstone GUI 我尝试执行从 luther 到 blackout 的实时迁移,但迁移失败。请参阅以下来自 oned.log 的摘录。感谢您的帮助和提前领导。
2014 年 2 月 12 日星期三 13:15:34 [VMM][I]:成功执行传输管理器驱动程序操作:tm_premigrate。2014 年 2 月 12 日星期三 13:15:34 [VMM][I]:ExitCode:0
2014 年 2 月 12 日星期三 13:15:34 [VMM][I]:成功执行网络驱动程序操作:pre。
2014 年 2 月 12 日星期三 13:15:35 [VMM][I]:命令执行失败:/var/tmp/one/vmm/kvm/migrate 'one-4' 'blackout' 'luther' 4 luther 2 月 12 日星期三: 2014 年 15:35 [VMM][E]:迁移:命令“virsh --connect qemu:///system migrate --live one-4 qemu+ssh://blackout/system”失败:错误:无法连接到“停电:49152”处的服务器:没有路由到主机
2014 年 2 月 12 日星期三 13:15:35 [VMM][E]:无法将 one-4 迁移到
2014 年 2 月 12 日星期三 13:15:35 [VMM][I ]:退出代码:1
2014 年 2 月 12 日星期三 13:15:35 [VMM][I]:无法执行虚拟化驱动程序操作:迁移。
2014 年 2 月 12 日星期三 13:15:35 [VMM][E]:实时迁移 VM 时出错:无法将 one-4 迁移到停电
2014 年 2 月 12 日星期三 13:15:35 [LCM][I]:无法实时迁移 VM . 假设 VM 仍在运行(将轮询 VM)。
2014 年 2 月 12 日星期三 13:56:36 [LCM][I]:新 VM 状态为 SAVE_STOP
2014 年 2 月 12 日星期三 13:56:44 [VMM][I]:ExitCode:0
ssh - Opennebula CoreOS 云配置
我有一个 coreos_production_rackspace_image 在 xen 管理程序下的 opennebula 4.6.2 上运行,我可以从 coomand 行通过 ssh 连接到它,但我无法登录到正在运行的 coreos vm,因为我不知道如何通过 cloud-init 设置密码。
在 opennebula 中有一个是通过上下文变量将 ssh 密钥传递给虚拟机:“SSH_PUBLIC_KEY="ssh-rsa AAAAB3NzaC1yc2EAAA ....." 但这不允许我登录(不知道为什么)。我什至上传了一个 cloud-init 文件到“文件和内核”,我通过上下文变量传递给 vm 到 vm 模板,但我仍然无法登录。
Opennebula 确实有 cloud-init 的概念,但它说它设置的是 root 密码,而不是核心用户密码。http://docs.opennebula.org/4.6/user/virtual_machine_setup/cloud-init.html
amazon-web-services - 从物理基础架构迁移到虚拟基础架构
我是云计算的新手,仍在尝试学习很多东西。
假设我的数据中心正在运行(非虚拟化)一些广告服务器。有一天,我意识到负载已增加到无法管理的程度,并且由于我的硬件有限,我无法处理突然且非常大的负载(超出我的数据中心能力)。对于这种情况,云计算来拯救。我们可以动态分配和释放资源。
现在,由于我没有使用任何云平台,例如 openstack、opennebula。我将无法将我的负载迁移到第三方服务提供商,比如 AWS。
我的问题是,当我们不运行任何虚拟化数据中心但仍希望具有弹性并扩展到第三方提供商并相应地支付费用时,我们应该如何处理此类情况。
我知道这个问题没有正确表述,但专家会很容易理解我的问题。
我是一名学生,只想学习这个。不要求任何作业/家庭作业帮助。
python - 通过 python xmlrpc 与 opennebula 4.8 通信
我正在尝试opennebula 4.8
通过xmlrpc
和交流python
。这是代码:
-->
我有这个来自oca 包的例子,但它不能与新版本一起使用,opennebula
并且作者不再在这个项目上工作。
maven - 如何从厨师文档中添加食谱
我是厨师食谱的新手,目前正在处理一项任务。我已经完成了 chef.io 上的教程,但我很难理解如何安装chef-io提供的食谱。
所以到目前为止,我已经下载了食谱。它的 .tar 文件,我提取了它。我可以看到各自的 default.rb 和其他文件,但我无法知道如何将此食谱添加到正在创建 vm 映像的现有食谱中。
有没有我可以遵循的指南或教程?
networking - 在 OpenNebula 中设置/使用虚拟路由器
我正在尝试安装和使用 OpenNebula,所以我对这些东西很陌生。我使用 指南安装了具有 1 个前端和 2 个 Worker 节点的 OpenNebula 4.4 。
我可以实例化虚拟机并可以通过 SSH 连接到它们。对于我的网络模板,我使用工作节点网络中可用的 IP 分配了租约。
现在我想用虚拟路由器创建一个虚拟专用网络,这样我就可以实例化虚拟机,这些虚拟机将成为专用网络的一部分。我阅读了 OpenNebula 虚拟路由器指南,但无法清楚地了解如何在我的设置中使用虚拟路由器模板。任何人都可以提出一个好的方法来进行吗?
qemu - 如何使用 virsh snapshot-create-as... 创建外部快照?
当我尝试创建快照时
发生错误。
错误:不支持的配置:磁盘 vda 的外部快照文件已存在并且不是块设备:/var/lib/one/datastores/1/2aae91bd6c04fa2db0849bc0db1342ba
然后我跑
没有显示 one-217 的快照。
我跑
结果像这样 vda /var/lib/one//datastores/0/217/disk.0 hda /var/lib/one//datastores/0/217/disk.1
我很困惑。如何使用virsh snapshot-create-as命令创建外部快照,或者我应该尝试另一种方式?以及如何创建多磁盘快照?
virsh 版本针对库编译:libvirt 0.10.2 使用库:libvirt 0.10.2 使用 API:QEMU 0.10.2 运行管理程序:QEMU 0.12.1
有人可以帮我吗?提前谢谢!
virtualization - 如何在虚拟机中自动安装应用程序?
使用 Open Nebula 我已经使用 Open Nebula Marketplace提供的 Centos 6.5 映像实例化了几个虚拟机(qemu-kvm)。现在我想在虚拟机上安装更多应用程序并运行一些后记。虽然我可以通过在每个 vm 上执行 ssh 来做到这一点,但我想自动化这个过程。
cloud - 我可以创建一个跨越多个计算机节点的实例吗?
我的问题是:
有没有办法创建一个跨越多个计算机节点的实例?它的意思是:
假设我有两个计算机节点,第一个有 2GB 内存、20GB 硬盘和 2 核,第二个有 4GB 内存、30GB 硬盘和 4 核。现在我想创建一个具有 5GB RAM、45GB HARD 和 5 核的实例。
这个问题是关于云计算的。请在所有云计算基础设施工具中回答这个问题:openstack
、、、、。cloudstack
opennebula
Eucalyptus
hadoop - Hadoop 集群仅显示 1 个活动数据节点
我正在尝试配置一个 3 节点的 Apache Hadoop 集群。我已经在 docker 环境中完成了它,并且在那里一切正常。现在,我正在尝试迁移到 Open Nebula 环境。我有 3 个带有 Ubuntu 和 Hadoop 的虚拟机。当我使用 ./sbin/start-dfs.sh 启动 hadoop 时,Hadoop 在所有从属服务器上打开了数据节点,到目前为止一切看起来都很好。但如果我使用“./bin/hdfs dfsadmin -report”,它只会显示 1 个实时数据节点。查看以下内容
这是我的主人上 JPS 命令的结果:
从站上的 JPS 命令:
我还可以通过 SSH 连接所有机器。我的猜测是我的主机文件有问题,因为我的奴隶无法到达主人。这是我的主人 /etc/hosts。
我没有修改我的 /etc/hostname 文件,但它看起来像这样。其中“my_ip_1”表示 VM 的当前 IP。
此外,如果我使用命令运行 hadoop PI 示例
我在 slave-1 和 slave-2 日志文件中收到以下错误。但是主节点自己解决了PI问题。