问题标签 [medical-imaging]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 预处理功能后如何保持图像和坐标(z轴)之间的关联?
我正在开发一个预处理函数,该函数将 DICOM 文件作为输入并返回 3D np.array
(图像堆栈)。问题是我需要保持ImagePositionPatient[2]
输出数组中已处理图像之间的关联和相对位置。
例如,如果一个切片ImagePositionPatient[2] == 5
映射到返回堆栈中位置 3 的已处理切片,我需要返回另一个数组,该数组5
位于第三个位置,并且所有原始切片都相同。对于在处理过程中通过插值或填充创建的切片,数组应包含一个像 -99999 这样的占位符值。
我在这里粘贴我的代码。编辑:新的简化版本
调整大小方法等的参考库是skimage
image-processing - fsl 重新采样的图像出现裁剪
我正在使用 fsleyes 通过提供参考图像来重新采样图像,但是生成的重新采样图像被裁剪了?
蓝色是重采样覆盖
我尝试提高参考图像的分辨率,但这也无济于事。
python - 如何获取在 python 中保存为 numpy 数组的 3D 医学图像的轴向切片?
我有大小为 [284,143,143] 的 3D 体积医学图像。我想从中提取轴向切片并将它们单独保存在一个文件夹中。谁能告诉我如何在 python 中实现这一点。
image-processing - 将 CT 切片转换为平面 X 射线图像
我有胸部 CT 扫描的轴向切片。现在,我想使用所有这些切片构建一个平面结构,例如具有冠状视图(从后到前或从前到后视图)的 X 射线。
我不知道如何处理这个问题。我认为一种方法是沿冠状平面的切片的加权平均值,对于 AP 视图的正面切片具有更多权重。
请分享您对如何解决此问题的想法。提前致谢。
google-cloud-platform - 从远程 Orthanc 服务器获取数据到 Ohif 查看器
我有我的应用程序正在 docker 上运行。在应用程序的本地版本上,我运行我的 Ohif 查看器,我正在使用命令 yarn run dev:orthanc。由于我想从远程 Orhtanc 服务器获取数据,我将 package.json 文件脚本“dev:orthanc”从 1) 更改为 2),并且一切正常。我的本地机器查看器上有来自 Orthanc 服务器的图像。
"dev:orthanc": "cross-env NODE_ENV=development PROXY_TARGET=/dicom-web PROXY_DOMAIN=http://localhost:8042 APP_CONFIG=config/docker_nginx-orthanc.js webpack-dev-server --config .webpack/webpack。 pwa.js --watch",
"dev:orthanc": "cross-env NODE_ENV=development PROXY_TARGET=/dicom-web PROXY_DOMAIN=http://myRemoteServerIP:8042 APP_CONFIG=config/docker_nginx-orthanc.js webpack-dev-server --config .webpack/webpack. pwa.js --watch",
现在我想在 GCP 实例上做同样的事情。我该怎么做?我试图将所有带有 localhost 的 url 更改为我的实例 IP,但它不起作用。我还尝试在 docker-compose 容器上运行 ohif 查看器,但在我的解决方案中它不起作用。
有人可以帮助我并告诉我如何在生产服务器上使用来自我拥有的 IP 的远程服务器的图像运行它吗?
python-3.x - 如何在 Conv 神经网络 (Unet) 中输入 nifti 图像
对于我的论文,我有 16 个 nifti MRI 图像(Dim:162×162×192),我的计划是使用 Conv 神经网络,我将 10 和 6 个图像划分为训练和测试图像。问题是,如何将 Unet 中的 nifti 图像作为输入和输出的训练图像提供,以及如何提供测试图像?谢谢你。
python-3.x - 如何通过python3将多个png或Jpeg图像转换为一个nifti图像?
我有 191 个不同的 png 图像。
如何将它们转换为一张 3d nifti 图像?
r - 如何在 R 中将 dicom 图像转换为 Jpg 格式
如何将文件扩展名为 .dcm 的 Dicom 图像转换为 R 中的 Jpg 或 Png
我在 R 中尝试以下代码,但收到错误为错误:'...' 在不正确的上下文中使用
我下面的 R 代码有什么问题。
python - 如何在 Python 3 中解码和可视化 DICOM 曲线数据?
我正在尝试使用 Python 3 和 pyDicom 可视化一个 DICOM 文件,该文件应该包含一个黑色的 100x100 图像,其中绘制了一些曲线。像素数据是从标题 (7fe0,0010) 中提取的,打印时显示b'\x00\x00\x00...'
. 我可以轻松地将其转换为 100x100 的 numpy 数组。
但是,(5000,3000) 中的曲线数据显示我b'\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\xc0H@\x00\x00\x00\x00\x00\xc0X@\x00\x00\x00\x00\x00\xc0H@'
无法将其转换为 100x100 像素图像中的 x,y 坐标。在 DICOM 文件中它说
- 曲线尺寸:2
- 点数:2
- 数据类型:聚
- 数据值表示:3
- 曲线标签:横轴
- 曲线数据:32个元素
主要问题是:如何解码在 100x100 图像中回溯曲线所需的坐标?我主要关心的是应该有 32 个元素,但输出中只有 26 个十六进制值。我也不知道如何处理\xc0H@
and \xc0X@
。当我打印这些时,它会产生192 72 64
和192 88 64
. python如何将这2个十六进制代码解码为6个数字?这些数字代表什么?
编辑:
显然数据值表示 3 意味着数据表示为浮点双精度。另一方面,数据中应该有两个点,那么每个点用16个元素表示?我看不出这两个语句是如何兼容的。有趣的是,\xc0H@
如前所述,第一个转换为 3 个数字,并通过这样做完成了曲线数据的前 16 个元素。如何将其转换为 2D 图像中的一个点?
numpy - 将 DICOM 图像转换为形状的 numpy 数组(s、3、256、256)
我有包含 MRI 图像的文件夹,我正在尝试用我自己的数据复制 MRnet 研究。他们的模型适用于每个主题 1 个 .npy 文件,形状 (s, 3, 256, 256),其中 s 是给定主题的切片数(因主题而异)。
我已经研究了几种不同的方法来解决这个问题,但似乎没有一个对我有用。我得到的最接近的是至少使用以下方法将 .dcm 文件转换为 JPEG:
我知道我可以使用 pydicom 来执行此操作,但我在他们的文档中找不到任何有关如何实现此结果的信息。
我本质上想要np_pixel_array
上面代码中的信息,它返回一个 256、216 的形状,但是我想要该数组中文件夹中的每个 dcm 文件,所以它会变成 (30, 256, 216) 或者每个文件夹有多少切片.
有没有人有这方面的经验并且可以提供帮助?