问题标签 [openshift-enterprise]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
openshift - v3 从哪里获取 git_url?
我正在尝试克隆到我的本地 git 存储库。从 Mac 终端:
git clone git_url directory_to_create
在 Web 控制台中,我尝试使用 GitHub Webhook URL 和 Generic Webhook URL。但我收到此错误:请求的 URL 返回错误:405
有什么建议么?
asp.net - Openshift - 构建错误:非零 (13) 退出代码
我正在尝试在 OpenShift Container 平台上构建和部署一个基于 dotnetcore 的 ASP.NET 应用程序(使用 AngularJS)。构建操作失败并出现以下错误:
我选择执行 source2image 构建。所以,我不确定出了什么问题。有人可以建议吗?谢谢。
sql-server - Openshift 平台上的 SQL Server 连接
我有一个 SQL Server 部署在 Openshift 容器平台上的 RHEL 映像上。可以使用容器本身的 SQLCMD 命令访问服务器。但是当我尝试从容器/pod 外部访问同一台服务器时,我得到一个非常奇怪的错误,如下所示:
我正在尝试从仅包含客户端工具的容器中进行此操作。我也尝试创建一个 DSN。我仍然得到同样的错误。已经部署了一个 Kubernetes 服务,它指向 1433 端口。
我错过了什么?请指教。谢谢
kubernetes - 了解 openshift 中的持久卷声明模式
我试图了解Openshift 中 Persistent Volume Claims 的不同访问模式。从这里找到以下信息
我知道 PVC 绑定到单个项目/命名空间,也可以扩展到不同的项目。
但这里的困惑是,这里的“单节点”或“多节点”是什么意思。例如,在RWO
模式下,"The volume can be mounted as read-write by a single node"
. 它指的是什么节点。
有人可以告诉我这些模式对于单个项目/命名空间的意义吗?带有 RWO 的存储是否只能对一个应用程序或项目内的所有应用程序具有写入权限?
openshift - 登录 OpenShift 3.7 问题
我正在使用 Ansible 在 OpenShift 3.7 中使用以下参数安装日志记录(EFK),
但它失败并显示消息,我不知道为什么,我尝试使用 openshift_logging_es_cluster_size=1 ,它可以正常工作。但我希望集群大小为 3。任何人都可以帮我解决这个问题 -
docker - Dockerfile -Error: lsstat target/springbootdemo-0.0.1-SNAPSHOT.jar: 没有这样的文件或目录
我有一个 Spring Boot 项目,并尝试在 OpenShift V3 上使用 Docker 文件构建项目。
问题是我的 git repo 中只有我的源代码;没有目标目录或 jar 文件。我的 Dockerfile 无法获得最终工件(将应用程序打包到 jar 中)。
以下是我的 docker 文件内容
除 ADD /code/target/springbootdemo-0.0.1-SNAPSHOT.jar app.jar 外,所有命令均正常工作
命令:RUN ["mvn", "package"] - 成功执行并显示 jar 文件已在控制台上的位置 /target/springbootdemo-0.0.1-SNAPSHOT.jar 创建
*项目文件夹结构
openshift - Openshift 3.4 直接聚合日志记录到 splunk,无需 Elastic Search
我们正在运行 Openshift Container Platform 3.4.1。它使用 RedHat 提供的 EFK 聚合日志记录解决方案来记录到 Elastic Search。我们还启用了到 Splunk 的安全转发器。Splunk 是我们的战略日志记录解决方案,因此我们只希望将日志发送到那里。
我们也遇到过 ES 出现问题,日志不再转发到 Splunk 的情况。
我会考虑构建一个独立的 Fluentd 解决方案(发送到 Splunk),但我们的用户现在熟悉聚合日志记录丰富数据的方式,我认为独立的 FluentD 容器不会这样做。
有谁知道是否可以修改聚合日志记录,使其根本不发送到 ES,而只使用安全转发器将数据发送到 Splunk?或者,放弃聚合日志,并使用标准 FluentD 安装,同时保持聚合日志提供的丰富性?
顺便说一句 - 这只是我使用 Openshift 的第二周,所以如果这是一个模糊或糟糕的问题,我们深表歉意 :) 谢谢 M
openshift - openshift:每次成功构建都会创建新的 pod
我是 openshift 新手,我使用 s2i 策略创建了新的 openshift 应用程序。但我的问题是每次成功构建它都会创建新的 pod,而不是覆盖当前正在运行的 pod 上的图像。
有人可以让我知道配置更改以使其替换正在运行的 pod 上的构建映像,而不是创建新的 pod 吗?
openshift - OpenShift Origin 的限制
与 OpenShift Container Platform(前 Enterprise)相比,OpenShift Origin 是否有任何强制限制?我的意思是,在 Origin 上,您最多只能拥有一定(低)数量的节点等。
此外,哪些功能在 Container Platform 中可用,但在 Origin 中不可用?当然,除了支持...
问候,路易斯