我正在尝试在谷歌医疗数据集的 FHIR 存储中摄取 100 万个 FHIR JSON 文件(每个文件以字节大小为单位)。摄取需要很长时间(超过一个小时)。有什么方法可以优化医疗 API 的速度。
注意:我也想摄取、去识别和导出到 bigquery。所以整个过程需要3个多小时的时间。
提前致谢
我正在尝试在谷歌医疗数据集的 FHIR 存储中摄取 100 万个 FHIR JSON 文件(每个文件以字节大小为单位)。摄取需要很长时间(超过一个小时)。有什么方法可以优化医疗 API 的速度。
注意:我也想摄取、去识别和导出到 bigquery。所以整个过程需要3个多小时的时间。
提前致谢
在 Google Cloud Healthcare API 中批量导入 FHIR 的一些性能提示:
- 确保您的输入 GCS 存储桶与医疗保健数据集位于同一区域。跨区域进口将放缓。
- 检查您的项目配额。批量导入的相关配额是“FHIR 存储入口(以字节/分钟为单位)”。如果这成为限制因素,您可以请求增加配额。
- 性能可能会因您使用的区域的总体负载而异。us-central1 是一个非常受欢迎的区域,因为它在 codelab 中被引用;您可能会在其他地方实现更高的吞吐量(请参阅 https://cloud.google.com/healthcare/docs/concepts/regions了解可用区域)。