java-websocket WebSocketClientsConcurrentHashMap
作为值的内存不断增长。
我已将其隔离到尝试每秒重新连接到对等方白名单的代码部分。我已经测试过在连接失败后是否正确删除了条目,并且确实如此。我还查看了所有我能找到的“concurrenthashmap memory leak”。
我不知道如何实施这种可能的解决方案。该解决方案是否解决了问题?如果是这样,请提供示例代码。
我试图实施这个建议
ConcurrentHashMap<String, MyClass> m =
new ConcurrentHashMap<String, MyClass>(8, 0.9f, 1);
我认为这在一定程度上减缓了增长率,但我不知道如何调整它。这通常是正确的方法吗?如果是这样,请提供示例代码。
我也尝试HashTable
按照这里的建议切换到 a ,但我ConcurrentModificationExceptions
立即得到了,所以我认为这已经结束了。
ConcurrentHashMap
当每秒快速插入和删除数千个条目时,如何管理此实现的内存?如果不能,是否有替代方案?
通过引用而不是通过副本传递
我添加了HashMap
存储 a 的 a new
WebSocket
,并且只有当它不存在时才能重新尝试连接以及ConcurrentHashMap
.
这极大地改善了内存管理,但它仍然有一点泄漏,大约每 5 秒泄漏 0.1 MB,大约每秒尝试 5 次。
这是我的代码、WebSocket
“析构函数”还是ConcurrentHashMap
对已删除值的管理的问题?
死了Object
吗?
增长率再次大大降低,因为我remove()
从ConcurrentHashMap
之前调用close()
了WebSocketClient
然后最后remove()
从HashMap
.
WebSocketClient
在被关闭并从两个地图中删除后,如何以及为什么仍然会徘徊?
System.gc();
泄漏率再次大大降低!
我叫它之后remove()
。