我有10台服务器(16G内存,8核),想部署Hadoop和Spark,请问哪个方案可以最大限度的利用资源?
立即部署;
安装Openstack,将环境部署到虚拟机中;
使用 Docker,例如 Docker 上的 Spark;
我知道与使用场景相关的资源利用率,其实我想知道上面三个方案的优缺点。
谢谢你。
我有10台服务器(16G内存,8核),想部署Hadoop和Spark,请问哪个方案可以最大限度的利用资源?
立即部署;
安装Openstack,将环境部署到虚拟机中;
使用 Docker,例如 Docker 上的 Spark;
我知道与使用场景相关的资源利用率,其实我想知道上面三个方案的优缺点。
谢谢你。
为了获得最高的资源利用率,为 Spark 和 Hadoop 部署一个资源管理器将是最好的方法。有两种选择:
隔离 Spark 集群和 Hadoop 集群并没有什么优势,而且会导致更高的开销和更低的资源利用率。