问题标签 [rollingfilesink]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 如何从配置中无限期地初始化retainedFileCountLimit
尝试将以下代码配置转换为配置行:
滚动文件接收器的文档指出,为了无限期地保留日志,必须将retainedFileCountLimit
参数发送为null
.
我试过这个
但正如我所料,null
文字不被接受,而且似乎试图直接转换为 Int32。
这是堆栈跟踪以供参考:
c# - 用于滚动文件接收器的 Serilog 机器名称丰富器
我正在尝试将几个丰富器(现在是机器名称和线程 ID)与滚动文件接收器和 Loggly 接收器结合使用。虽然 Loggly 事件正确包含机器名称和线程 ID 属性,但我在滚动文件事件中看不到这些。
这是我的 xml/代码配置:
有没有人设法做到这一点?这种行为可能是设计使然,还是滚动文件接收器不支持这些丰富器?
serilog - Serilog - 可以在 RollingFile Sink 中更改日期时间/时间戳格式
日期时间的 RollingFile Sink 的当前输出如下
无论如何要删除时区偏移量吗?+10:00
. 实现以下输出;
就我而言,时区偏移量是多余的,只是弄乱了我的文本日志。
serilog - “Serilog”已经为“Microsoft.CSharp”定义了一个依赖项
我正在尝试安装 serilog,但出现错误
PM> Install-Package Serilog
Install-Package:“Serilog”已经
为“Microsoft.CSharp”定义了一个依赖项。在 line:1 char:1
+ Install-Package Serilog
+ ~~~~~~~~~~~~~~~~~~~~~~~
+ CategoryInfo : NotSpecified: (:) [Install-Package], InvalidOperationException
+ FullyQualifiedErrorId:NuGetCmdletUnhandledException,NuGet.PowerShell.Commands.InstallPackageCommand
Microsoft.CSharp
已在我的项目中引用
c# - Serilog 在 2 KB 后创建一个新文件
我正在使用滚动文件接收器。
以下是我的初始化代码:
这是要记录的行:
但在 2 KB 之后,它会创建一个新文件。
我不知道出了什么问题。
更新
这是我的记录器类:
这是我的调用者类:
c# - Serilog - RollingFile Sink 不会根据日期和大小滚动文件
我正在使用 Serilog - RollingFile Sink,但它将所有数据存储在一个文件中一天。在我的应用程序中,一天写入 1 GB 日志。所以我想根据日期和大小滚动日志文件。
如何配置 RollingFile Sink 以根据日期和大小滚动文件?
apache-flink - Flink BucketingSink 与 Custom AvroParquetWriter 创建空文件
我为 BucketingSink 创建了一个作家。接收器和编写器可以正常工作,但是当编写器将 avro genericrecord 写入镶木地板时,该文件是从进行中创建的,等待完成。但是文件是空的,只有 0 个字节。谁能告诉我代码有什么问题?我尝试将 AvroParquetWriter 的初始化放在 open() 方法中,但结果仍然相同。
调试代码时,我确认 writer.write(element) 确实执行并且 element 包含 avro genericrecord 数据
流数据
ParquetSinkWriter
logging - SeriLog fileSizeLimitBytes 属性 asp.net Core
我们使用 asp.net Core 1.1 并使用 SeriLog 在应用程序中创建日志文件。
现在为了控制日志文件的大小,我添加了属性 fileSizeLimitBytes
在这种情况下,写入日志文件停止,当我删除上述属性时,再次写入日志文件开始工作
所以我添加了如下 "pathFormat": "Logs/LogFileConf-{Date}-test.Log", "fileSizeLimitBytes": 500000
我不确定我在这里缺少什么。
有人可以在这里帮忙解决这个问题吗?
scala - 将文本或json保存到S3时使用Spark数据框如何控制输出文件大小
txt/json
保存到S3
使用时,我需要一种控制输出文件大小的方法java/scala
。
例如,我想要一个 10 mb 的滚动文件大小,我如何使用数据帧代码来控制它,
我已经试验过了
spark.sql.files.maxPartitionBytes
。这不能提供准确的控制。例如,如果我设置spark.sql.files.maxPartitionBytes=32MB
输出文件的大小为 33 mb。其他选项是使用 reparition,
df.rdd.reparition(n)
这将创建 n 个文件。n 的值 = 输入文件的大小/卷文件大小,例如输入文件大小 = 200 mb,卷大小 = 32 mb,n = 200/32 = 7。创建 6 个大小为 32 mb 的文件和 1 个 8 mb 文件。
感谢有关控制输出文件大小的任何想法。
谢谢
asp.net-core - Serilog - can not log to multiple files based on property
Hello i am trying to log some messages in a file and others in another file using Serilog
.
I have tried the following configuration:
Now i am expecting that when i Push
a key-value pair with the key being audit
to the log context , my data to get logged in the first pattern audit
:
Why does my data get in the second pattern? Its getting logged to console and put in the other file and i do not get why.
Update
From the answer below i understood there is no need to define multiple loggers, but dispatch based on the key
:
However when i try to use it to log in the first scenario audit
like below, all logs get placed in the other scenario (logpath
+ Console
)