问题标签 [bare-metal-server]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
load-balancing - 对于本地集群,推荐的负载均衡解决方案是什么?
我有一个 k8s 集群,需要托管几个网站,目前我正在使用主机网络方式来代理流量。
然而,随着流量的增长,我将需要一个更具可扩展性的解决方案来负载平衡流量。
我已经在互联网上尝试了一些使用 bare metallb https://metallb.universe.tf/的教程,但没有成功。我不熟悉网络技术,有人会推荐一种易于安装和维护的本地负载均衡器硬件或裸机负载均衡器软件的解决方案吗?
vmware - 在 AMD Ryzen 5 3500 上尝试 ESXi 6 / 6.5 时发现错误“无网络适配器”
我试图在我的个人笔记本电脑中安装 VMWare ESXi 6.5 作为一种练习(只是为了看看它是如何作为裸机工作的)
我正在使用 AMD Ryzen 5 3500 CPU,但在安装时,它说我的机器上“没有网络适配器”
我正在使用带有 6.5 ISO 的 USB 可引导 ESXi,并且我的 Realtek NIC 卡 (8822BE) 使用正确的驱动程序正确安装。
我对该问题进行了一些研究,一些社区说我需要使用 ESXi 定制器并为我正在使用的网络适配器嵌入 .VID Realtek 8822BE 支持的 ESXi。
但不幸的是,我没有找到任何支持我的网络适配器的 .vid。
我现在可以做些什么来解决这个问题?
database - 裸机 - Google
我们可以在 GCP 中的裸机解决方案上使用 Stackdriver for Oracle 数据库监控吗?
我的场景:我想在裸机服务器上安装 Oracle 数据库。谷歌确实表示,谷歌云的所有服务都可以与裸机解决方案一起使用。如果是这样,我们可以使用 stackdriver 进行监控。你能帮忙设置一下吗?
kubernetes - 使用 nginx 入口控制器在 kubernetes 上公开应用程序 - 裸机方式
我是 K8s 的新手,试图通过 IP 访问应用程序。下面是情况——
- 集群准备就绪,1个master节点和1个worker节点,pods处于运行状态
- 在此文档的帮助下安装了 nginx 入口控制器
- 现在我可以访问工作节点(在当前显示 404 状态的浏览器上粘贴工作 IP),我想访问在端口 4200 和 8080 上运行的应用程序
- 如何通过基于路径的方式访问我的应用程序,例如
XXX.XXX.XXX.XXX/app1
和XXX.XXX.XXX.XXX/app2
,在哪些文件中以及我必须做哪些更改?服务显示状态为<pending>
?这意味着什么
kubernetes - 无法使用 nginx 入口控制器访问在集群内 pod 上运行的应用程序
我在 Hetzner 服务器上使用这个nginx 入口控制器。安装入口控制器后,我可以通过其 IP 访问工作节点,但无法访问集群内 pod 上运行的应用程序。我错过了什么吗?Ingress 和 Traefik 是否不同,在术语上有点混淆。
服务文件 -
部署文件 -
入口文件 -
linux - 使用某些解决方案通过 ipmi 自动安装操作系统
如果存在,请提出解决方案。有 20 台空的裸机服务器。我需要去ipmi手动连接镜像文件启动安装OS。问题:是否有任何解决方案可以自动化此过程?
kubernetes - Kubernetes入口502坏网关
我在具有以下节点的裸机(使用 VMware 虚拟机)上安装了 Kubernetes 集群
Metallb 安装为集群的负载均衡器,calico 安装为 CNI
我还用 helm 安装了 nginx-ingress-controller
我部署了一个简单的 nginx 服务器进行测试
我的负载均衡器类型的部署从 metallb 获取 IP 并且工作正常,但是当我添加入口时,虽然分配了 IP,但我收到错误 502 bad gateway,如下所示:
防火墙已启用,但所需端口已打开
我的服务和 Pod 运行良好
我的入口日志给了我错误,没有到内部 IP 的路由
请问有什么想法吗?
编辑:正如这里询问的服务和豆荚的描述
老实说,我不明白为什么 curl svcip 不再起作用了;昨天它起作用了。
amazon-web-services - 在本地 2 节点 kubernetes 集群中运行 aws cloud kubernetes 项目的问题
我正在尝试在我的本地集群环境中运行为 AWS 云部署配置的项目。在云部署中,它使用kubectl
AWS 云上的 Kubernetes CLI ( ) 和 kops(一种在公共云基础设施上创建和管理 Kubernetes 集群的工具)进行配置。
简而言之,我的问题是:是否可以在我的本地 2 节点 kubernetes 集群中运行此应用程序进行测试(因为我没有 AWS 云)?
更多细节:
在云设置中,它有一个集群创建脚本来创建集群,在创建集群后,我们得到了两个 AWS ELB 的 URL,可以用来与云负载均衡器提供的两个服务交互(一个后端服务 +一项前端服务)。
我的问题: 当我试图在我的实验室托管的 2 节点 kubernetes 集群上运行该项目时。kubeadm
我已经使用而不是 GitHub 链接中给出的原生 AWS 云(kops + k8s)来设置集群。我已修改脚本以分别删除对 kops 和 AWS 的引用。在这个本地 kubernetes 集群中,我使用MetalLB作为服务的负载平衡器。
在脚本结束时,与 AWS 云部署不同,客户端可以使用 2 个 AWS ELB 地址链接与系统服务进行交互,而不是客户端可以使用的两个 AWS ELB 地址链接,而是获得物理节点的两个公共 IP:xxx.xxx.80.72
分别xxx.xxx.12.58
为这两个服务提供由 MetalLb 负载均衡器(使用预配置的地址池)。
正如预期的那样,所有 pod 都处于运行状态。
但是,当我尝试从集群中的客户端连接服务时,它无法连接到服务。执行总是在 if-else 条件下进入异常_connect method
(代码如下):
在这一点上,有人可以给我一些关于在我的裸机 2 节点集群中连接该项目的服务可能会出现什么问题的指示吗?
haproxy - MicroK8s,家庭设置的 HA-Proxy。如何配置端口转发?
我有的:
单个节点上的 Microk8s 集群。具有唯一入口域地址的多个 WordPress 部署。我使用 No-Ip 将每个域映射到我的家庭 IP。我的路由器端口将这些请求转发到我的单个节点的 IP。我所有的入口控制器都指向负载均衡器的 127.0.0.1。
我想要的是:
添加另一个节点以使我的家庭网络具有高可用性。将我的路由器配置为指向将请求转发到健康节点的单个 IP(如果其中一个失败)
我需要的支持:
我对如何有效地实现这一点有点困惑。
如果我的原始节点出现故障,我的路由器将无法向它转发任何请求,我必须手动将端口转发设置更改为新节点。
我已经阅读了一些关于插件 metallb 的内容,但很难看到这将如何解决我的问题,因为我看到的所有示例都只是用于部署的 pod 之间的负载平衡,并没有解决我的节点 IP 问题。
笔记:
我还没有尝试过任何这些,因为我没有额外的硬件并且想要避免任何长时间的停机,这就是为什么我首先需要我的理解是正确的。
任何帮助/提示/指导将不胜感激。
kubernetes - k3s MetalLB ingress-nginx裸机服务器入口问题
我暂时决定使用 Kubernetes,最好是使用 Rancher,这样我就可以在我的家庭办公室设置中轻松启动和关闭容器化应用程序并运行 Web 服务器等。我有一个相当正常的互联网设置,路由器通过我的 ISP 的静态 IP 连接到互联网。我希望能够在办公室 LAN 上的裸机服务器上安装 Web 应用程序,以便其中一些可以通过 Internet 访问,而另一些只能通过 LAN 访问。我已经决定将 k3s 作为 Kubernetes 发行版。
我打算使用从路由器到服务器上的 IP 地址的端口转发,并在其上托管不同域的多个 Web 服务器。路由器最初会通过路由器上的主机名条目找到应用程序,但稍后可能会通过托管在 k3s 上的 DNS 服务器找到应用程序。
仔细阅读,我需要 MetalLB 和 Kubernetes 安装上的某种 Ingress 控制器。
MetalLB 为 k3s “集群”和入口控制器提供 IP 地址,以执行到 k3s 集群中各个服务器的第 7 层路由。我发现 ingress-nginx 可能是一个合适的入口,但我的安装有几个我无法解决的问题。我希望 MetalLB 在服务器网络 i/f 上广播多个 IP 地址:
一个 IP 用于通过端口转发从外部访问的应用程序,另一个 IP 用于那些仅具有内部可访问应用程序的服务器。
我在下文中追求的是简洁而不是简洁,因为我认为这是一个足够复杂的设置,是必要的。我给出了各个部分的确切安装说明,以便人们可以准确地看到我在做什么:
安装 k3s:
curl -sfL https://get.k3s.io | INSTALL_K3S_VERSION=v1.21.4+k3s1 sh -s -
然后通过编辑 /etc/systemd/system/k3s.service 禁用 Traefik 和 servicelb,使 ExecStart 行变为:
ExecStart=/usr/local/bin/k3s server --disable traefik --disable servicelb
安装 CertManager 如下:
安装 MetalLB:
在 metallb-config.yaml 中使用以下内容:
跑:
kubectl apply -f metallb-config.yaml
安装 nginx:
其中 ingress-nginx-baremetal-github.yaml 是https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.0.1/deploy/static/provider/baremetal/deploy.yaml中引用的文件在https://kubernetes.github.io/ingress-nginx/deploy/#bare-metal部分 Bare-metal 的 ingress-nginx 安装页面上进行了以下更改:
即,已添加注释“metallb.universe.tf/address-pool:inetfa”并将NodePort更改为LoadBalancer。
我已经使用 bitnami Apache 安装了服务器,如下所示:
helm install my-release -f apache1-configmap.yaml bitnami/apache
此设置更改的目的是使 ingress-nginx 安装使用 MetalLB 通过匹配的地址池名称“inetfa”分发的 IP 地址 192.168.1.16
但
我的服务器应用程序使用的 IP 地址是 192.168.1.17/32,尽管基于“apache1-configmap.yaml”文件,第 7 层路由工作正常,例如:
所以,回顾一下我所拥有的:
我可以拥有多个具有不同主机名的 apache 服务器。Ingress-nginx 基于主机的路由根据各自 apache configmap.yaml 文件中的主机名工作到每个服务器
但
它们都来自 MetalLB 在其地址池中看到的第一个 IP,而不是根据需要在 ingress-nginx 设置中由注释选择的 IP。
似乎它是使用的第一个地址池,它没有设置“自动分配:false”,无论 metallb.universe.tf/address-pool: 注释和地址池名称如何。这不好,因为我需要在所有地址池上使用“auto-assign: false”,以防止在 Web 上访问错误的服务应用程序。
谁能看到我做错了什么以及我需要改变什么才能让地址池选择在 MetalLB 和 ingress-nginx 之间工作?
当我为面向 Internet 的应用程序选择地址池时,我想让另一个地址池为面向 LAN 的应用程序工作,如果我需要单独安装 nginx,或者是否需要单独安装 nginx,我将不胜感激这是一种安装一个 ingress-nginx 以支持多个 IngressClass 的方法,因此“ingress-nginx-baremetal-github.yaml”提供的“nginx” IngressClass 可以通过例如“nginxlanonly”IngressClass 来补充,该 IngressClass 使用不同的地址池。如果该想法行不通,任何人都知道如何做到这一点或如何实现相同的目标?