2

我正在尝试在谷歌医疗数据集的 FHIR 存储中摄取 100 万个 FHIR JSON 文件(每个文件以字节大小为单位)。摄取需要很长时间(超过一个小时)。有什么方法可以优化医疗 API 的速度。

注意:我也想摄取、去识别和导出到 bigquery。所以整个过程需要3个多小时的时间。

提前致谢

4

1 回答 1

0

在 Google Cloud Healthcare API 中批量导入 FHIR 的一些性能提示:

  • 确保您的输入 GCS 存储桶与医疗保健数据集位于同一区域。跨区域进口将放缓。
  • 检查您的项目配额。批量导入的相关配额是“FHIR 存储入口(以字节/分钟为单位)”。如果这成为限制因素,您可以请求增加配额。
  • 性能可能会因您使用的区域的总体负载而异。us-central1 是一个非常受欢迎的区域,因为它在 codelab 中被引用;您可能会在其他地方实现更高的吞吐量(请参阅 https://cloud.google.com/healthcare/docs/concepts/regions了解可用区域)。
于 2020-03-05T19:31:42.447 回答