问题标签 [log-rotation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ruby-on-rails - 由 root 用户而非应用程序用户拥有的轮换日志文件
我在 Rails 应用程序中使用日志轮换,这似乎可以正常工作。但是,新的日志文件归root
用户所有,而不是apps
用户所有。该应用程序通过也使用apps
用户的乘客运行。
是否可以让用户创建/拥有的新日志apps
而不是root
?
我使用的配置production.rb
如下:
node.js - Nodejs 应用程序的 Logrotation
我正在开发一个非常古老的 Nodejs 应用程序,它使用forever-monitor
. 此子进程的日志forever-monitor
仅由处理。这是配置的样子:
在此设置中一切正常。新要求是每 12 小时轮换一次这些日志。也就是说,每 12 小时将创建一个新文件,该文件将包含该文件的所有内容,childprocess_output.log
并应存储在其他目录中。新的日志文件显然会在名称末尾附加时间戳(例如:childprocess_output_1239484034.log)。
并且应该重置原始文件childprocess_output.log
,即应该删除其所有内容,并且应该从新开始记录。
我试图了解我应该为此目的使用哪个 npm 库。我google了一下,找到了一些符合我要求的npm库,但是这些库的下载量真的很小,所以我怀疑这些库的可靠性。
NodeJs 开发人员使用哪个库来进行日志轮换?
Logrotate
另外,如果我在 Node.js 中找不到任何合适的库,我最后的手段是使用 Linux 工具。我正在避免使用 Logroate,因为我希望我的应用程序能够处理场景而不依赖于实例配置。
splunk - 使用 Splunk 通用转发器从服务器中删除日志
Splunk Universal 转发器能否用于从特定服务器中删除日志。
例如,我在运行应用程序的服务器上安装了一个通用转发器。UF 的目的是将此应用程序的日志发送到 splunk 服务器进行监控。但是,此应用程序存在负载问题,需要进行日志轮换,否则服务器将关闭。我知道有设置日志轮换的常规方法,但是 Splunk UF 可以用于从源服务器中删除日志然后编制索引,而不是仅仅复制数据并编制索引吗?
如果你们需要进一步澄清,请告诉我。
kubernetes - Kubernetes 集群中日志轮换策略的实时更新
如何在生产系统中实时更新日志轮换策略,以便将策略传播到 k8s 集群中的所有节点(裸机)?
rabbitmq - 如何在rabbitmq中每天轮换日志
我想每天轮换rabbitmq日志。以下链接中提到可以使用以下属性配置旋转。log.file.rotation.date、log.file.rotation.size、log.file.rotation.count。 https://www.rabbitmq.com/logging.html
如何使用这些参数配置每日轮换?
linux - 如何使用 logrotate 压缩超过 1 天的文件
我有一个文件列表,如果它是一天前的,我希望 logrotate 对其进行压缩。所以我期待TRACE_03.log, TRACE_07.log被压缩,因为它超过 24 小时
现在我的 logrotate.conf
对于我的 Trace.log 配置
我的配置中缺少什么在这里不起作用?
php - Akeneo 一直在写 dev.log
我正在使用 Akeneo 2.1.8,但在我的生产服务器上,它不断将日志条目写入var/logs/dev.log
. 这些是简单的 INFO 条目,每天向日志文件添加 +/- 100 MB。
如何禁用dev.log
生产?我似乎在任何配置文件或文档中都找不到逻辑条目。
java - Log4j2 保持相同的文件重命名时间
我log4j2 2.11
用来创建日志文件。我根据时间和大小轮换了这些日志文件。基于时间的旋转效果很好,但是当我根据大小旋转时我遇到了一个奇怪的问题。
当我根据大小旋转时,我将日志文件压缩为以下命名的 gzip 文件${logdir}/${eventfilename}-%d{yyyyMMddHHmmss}{GMT+0}.log.gz
,但是,该log.gz
文件始终以相同的时间结束,从而无休止地覆盖先前的压缩日志文件。我的理解是当前时间将用于 gzip 文件,而不是第一次抓取来创建 gzip 文件。
如果我的基于大小的旋转文件始终以相同的名称结束并且没有更新到文件名中使用的当前时间,可能会导致此问题?
注意这里是我完整的配置文件:
docker - 从 pod 内部访问 Kubernetes pod 的日志文件?
我目前正在将旧服务器迁移到 Kubernetes,我发现kubectl
仪表板或仪表板只显示最新的日志文件,而不是旧版本。为了访问旧文件,我必须 ssh 到节点机器并搜索它。
除了麻烦之外,我的团队还希望限制对节点机器本身的访问,因为它们将运行来自许多不同团队的 Pod,并且不受限制的访问可能是一个安全问题。
所以我的问题是:我可以配置 Kubernetes(或 Docker 映像),以便将这些旧的(旋转的)日志文件存储在可以从 pod 本身内部访问的某个目录中吗?
- 当然,在紧要关头,我可能只是
run_server.sh | tee /var/log/my-own.log
在 pod 启动时执行一些操作……但是,为了正确执行,我必须添加整个日志文件轮换功能,基本上是复制 Kubernetes 已经在做的事情。