我们有一个网络应用程序,用户可以通过单击链接下载数据列表。这样做是在 MS sql server db 中触发存储过程 - 获取具有 14 列和所有字符串的行。一旦我们得到它并从结果集中提取,我们直接将它流式传输到客户端机器上的 csv 文件。这样我们就可以在开始流操作之前在内存中保存创建中间域对象(等于重新调整的行数)。我们也不会等到整个结果集都加载到内存中。但是,对于拥有例如 80000 个此类数据实例的客户来说——它仍在将内存增加 50 mb——然后下降了大约 20 mb,并且在相当长的一段时间内都保持在这个水平。如果我在 jconsole 上执行 GC,它也会释放剩余的 30 mb。不知道是什么导致这种情况持续一段时间。此外,对于在 1.2 gig 内存上运行的应用程序来说,50 mb 的峰值是不可接受的。对于更大的客户,它会增加 400 mb 并冻结应用程序或发生 OOM。任何建议我们如何实现这一目标?请注意 - 我已经在另一个地方实现了同样的事情,并且在 5 秒内下载了一个大小相同但数据不同(6 列)的文件,并且内存峰值仅为 5 mb。在这种情况下,虽然在 Sql Mnagament 工作室上运行时,存储过程仅在 4 秒内运行。但是我得到一个巨大的峰值的查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块 对于更大的客户,它会增加 400 mb 并冻结应用程序或发生 OOM。任何建议我们如何实现这一目标?请注意 - 我已经在另一个地方实现了同样的事情,并且在 5 秒内下载了一个大小相同但数据不同(6 列)的文件,并且内存峰值仅为 5 mb。在这种情况下,虽然在 Sql Mnagament 工作室上运行时,存储过程仅在 4 秒内运行。但是我得到一个巨大的峰值,查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块 对于更大的客户,它会增加 400 mb 并冻结应用程序或发生 OOM。任何建议我们如何实现这一目标?请注意 - 我已经在另一个地方实现了同样的事情,并且在 5 秒内下载了一个大小相同但数据不同(6 列)的文件,并且内存峰值仅为 5 mb。在这种情况下,虽然在 Sql Mnagament 工作室上运行时,存储过程仅在 4 秒内运行。但是我得到一个巨大的峰值,查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块 任何建议我们如何实现这一目标?请注意 - 我已经在另一个地方实现了同样的事情,并且在 5 秒内下载了一个大小相同但数据不同(6 列)的文件,并且内存峰值仅为 5 mb。在这种情况下,虽然在 Sql Mnagament 工作室上运行时,存储过程仅在 4 秒内运行。但是我得到一个巨大的峰值的查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块 任何建议我们如何实现这一目标?请注意 - 我已经在另一个地方实现了同样的事情,并且在 5 秒内下载了一个大小相同但数据不同(6 列)的文件,并且内存峰值仅为 5 mb。在这种情况下,虽然在 Sql Mnagament 工作室上运行时,存储过程仅在 4 秒内运行。但是我得到一个巨大的峰值的查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块 但是我得到一个巨大的峰值的查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块 但是我得到一个巨大的峰值的查询本身需要 45 秒才能运行,并且更多基于数据,因为它通过大量验证。会不会有不良影响?我希望不是因为我们在preparedststement 上的setFetchSize() 上获取1000 块
这是代码片段
Connection connection = null;
PreparedStatement statement = null;
ResultSet rs = null;
OutputStream outputStream = null;
BufferedWriter bufferedWriter = null;
try
{
response.setContentType("application/save");
response.setHeader("Content-Disposition", "attachment; filename="
+ link.getFileName());
outputStream = response.getOutputStream();
bufferedWriter = new BufferedWriter(new OutputStreamWriter(
outputStream));
connection = dataSource.getConnection();
statement = connection.prepareStatement(link.getQuery());
statement.setFetchSize(1000);
statement.setInt(1, form.getSelectedClientId());
rs = statement.executeQuery();
while (rs.next())
{
bufferedWriter
.write(getCsvRowString(new String[]
{ rs.getString(1), rs.getString(2), rs.getString(3),
rs.getString(4), rs.getString(5),
rs.getString(6), rs.getString(7),
rs.getString(8), rs.getString(9),
rs.getString(10), rs.getString(11),
rs.getString(12), rs.getString(13),
rs.getString(14), rs.getString(15),
rs.getString(16), rs.getString(17),
rs.getString(18) }));
}
} catch (final Exception e)
{
log.error("Error in downloading extracts " + e.getMessage());
throw e;
} finally
{
if (bufferedWriter != null)
{
bufferedWriter.flush();
bufferedWriter.close();
}
if (outputStream != null)
{
outputStream.close();
}
rs.close();
statement.close();
connection.close();
}