问题标签 [gzipinputstream]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - java.io.IOException:未知格式
我使用下面的代码来解压缩通过socket.io
.
当解压缩以压缩形式发送的数据时,下面的代码效果很好。(从 Node.js 发送的伪数据<Buffer a8 b2 ...>
:)
但是,当解压缩已在 JSONArray 中发送的数据时,出现java.io.IOException: unknown format
错误。(从 Node.js 发送的伪数据[<Buffer a8 b2 ..>, <Buffer c4 f0 ..>]
:)
有没有机会克服这个问题?
java - 序列化:读取序列化文件失败
我的代码是:
读取序列化文件时,我在 ObjectInputStream 上收到此错误。
gzip - EOFException:将 gzip 与过滤器一起应用于 dropwizard 时为 null
在尝试在服务响应标头中添加 gzip 内容编码时,我们遇到了使用dropwizard-core:1.1.2的异常。详细情况如下:
GzipFilter.class
Service.class
config.yml
500 API 响应的异常堆栈跟踪-
java - 使用 Java 从 GZIPInputStream 获取条目
有没有办法从 GZIPInputStream 获取条目?对于 .zip 文件,我使用以下内容:
但我想排除扩展名为 .xml.gz 的文件中的条目。或者有没有办法将 .xml.gz 文件中的数据提取为 String ?
java - GZIPOutputStream/GZIPInputStream 中的奇怪行为
我已将这段代码中的奇怪问题减少到最低限度。该程序将 (int)90000 的 128,000 倍字节写入文件,然后尝试将其读回。
设置 zipped=false 一切都像魅力一样工作 此时一个字节丢失,所有内容都向左移动一个字节(见输出)
...
0 1 95 -112- 这是 int 90,000 的字节码
计数器:496 126937
1 95 -112 0- 这是 int 23,040,000 的字节码
...
这是我想出的代码。我只是不明白为什么它会在一遍又一遍地做同样的事情时突然中断。非常感谢任何帮助/见解/解释者。
java - Gzip解压后多加一个字节... 为什么?
我编写了一个简单的 Java 代码片段,它接受一个字符串,将其转换为 byte[],然后使用 Gzip 对其进行压缩。然后它解压缩结果以取回 byte[],它现在包含一个额外的垃圾值字节。为什么这里有一个垃圾值字节??
公共静态 void main(String[] args) 抛出异常 {
}
输出:
有人能告诉我为什么会有一个垃圾值字节吗?如何在不更改上面代码设置的情况下摆脱它?
java - 在 Java 中读取未知长度的 Gzip 文件
我需要从 s3 下载 .gz 格式的文件。我可以很好地做到这一点
现在,要读取这个文件的内容,我可能需要做这样的事情
但是我不知道原始 .gz 文件的大小。
可能会说我可能会从 aws-s3-sdk 的某些 API 中获取大小。但我仍然认为必须有更好的方法。
另外,我需要非常快地进行此解压缩。我可以在 GZIPInputStream 上执行任何等效的并行流吗?
java - commons-io:java.io.EOFException:ZLIB 输入流的意外结束
我正在使用2.6版中的 Apache 库commons-io来解析 zip 流并获取其字节。但是当我打电话时,我得到一个java.io.EOFException: Unexpected end of ZLIB input stream。IOUtils.toByteArray(zipStreamObject)
这是我的代码:
这是堆栈跟踪:
顺便说一句,我知道我可以采用这个解决方案:异常:ZLIB 输入流的意外结束,但我不想在我的代码中实现这一点,实际上,当我尝试这样做时,我遇到了非 GZIP 流错误。
有人可以帮帮我吗?
java - 处理来自 s3 的大文件而没有内存问题
我正在尝试从 S3 读取一个大型 CSV 文件。我的 GZip 格式文件大小为 100MB,我需要解压缩然后读取 csv 数据。
所以我在下面找到了相同的答案,下面的代码片段可以解决问题。
我对上面的代码有两个查询:
- 提取在本地系统临时目录/JVM 或 S3 上发生在哪里?
- 它是如何解决内存问题的?
使用 spark 时,需要更多时间,我不确定如何在 spark 中处理 gz 文件。
java - 我有一个 ArrayList 在目录中存储几个 pdf 文件位置。如何将pdf的内容读取为字节数组并对其进行压缩
ArrayList 是这样的 - [ Desktop/folder/abc.pdf, Desktop/folder/xyz.pdf ]
我正在做这样的事情