我想可视化跨越几 GB 到几 TB 的 3D 数据量。一种解决方案是自己动手,但这可能需要一些时间。为避免这种情况,我目前正在探索当前可用的解决方案。我研究得越多,我发现的软件就越多。一些例子包括ParaView/VTK
, OSPRay
, Embree
, Splotch
,NVIDIA GVDB/OptiX
等。
其中一些软件为可视化和数据操作提供了完整的解决方案(例如,ParaView/VTK
)。其他人主要关注高性能渲染(例如,Embree
)。其他人提供用于渲染的低级 API(例如,GVDB/OptiX
)。有些针对特定硬件进行了优化(例如,Embree
针对 Intel 硬件、GVDB/Optix
针对 NVIDIA GPU)。其他包括分布式渲染的基础设施(例如,ParaView/VTK
) 这允许他们声称他们可以渲染数 TB 大小的数据集,而其他人则将此功能留给用户。可以说,使用一些巧妙的 LOD 和核外算法,也可以在单台机器上执行数 TB 大小的数据集体积渲染,但让我们将这个留待另一个讨论。最后,还有大量来自大学研究项目和学术界的软件,这些软件旨在解决特定问题,并且不再维护。
我想知道这里是否有人对此类软件有经验,并且可以就哪些软件/库值得试验给我一些指示或建议。我的理想要求如下:
- 以交互式帧速率(假设 > 10 FPS)对高达几 TB 的数据集执行体积渲染/光线行进。
- 利用不同的并行架构(CPU、GPU、多节点)
- 实施/支持详细程度算法。
- 能够在渲染场景中添加小部件。例如,轴箭头、剪切平面等。
- 采用提供公共 API 以供使用的库的形式。理想情况下在 Python 中,但我想自己围绕 C/C++ API 制作 Python 包装器是非常可行的。
- 它们得到积极维护并具有适当的文档。
我不一定要寻找包含以上所有内容的软件库,但是,越多越好!:)
先感谢您。