问题标签 [opendap]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 将选择 GFS-ensemble openDAP 数据加载到内存中(Python)
我想通过 netCDF 和 xarray 从 OpenDAP 服务器下载 GFS 集合数据的子选择。但是,当尝试将子选择加载到内存中时,程序会在返回 RuntimeError (netCDF: I/O failure) 一段时间后崩溃。
我希望获得的数据点数量是 13650,因此数据大小应该可以在 Python 中轻松处理。
奇怪的是,我在下载 GFS-data 或 NCEP-Reanalysis 数据时没有遇到这个问题。这让我相信这个问题可能与数据维度的数量有关,因为集成数据有 5 个维度,而再分析和运营 (GFS) 数据只有 4 个维度。
我也尝试在仅使用 netCDF4 模块时下载数据,但这导致了同样的错误。因此,我认为问题与 xarray 无关。
这是下载数据所需的代码:
谢谢!
python - 使用 Python 从 OpenDAP 批量下载数据
我正在尝试.nc
从 OpenDAP 下载多个文件。当我手动下载文件(没有脚本)时,文件按预期工作。为了加快这个过程,我有一个批量下载数据的脚本。但是,当我使用文件下载数据时xarray
,文件大了 10 倍,并且文件似乎已损坏。
我的脚本如下所示:
我有xarray
版本 0.10.8。我尝试使用 python 2.7 和 python 3.5.6 以及在 Windows 10 和 Ubuntu 16.04 上运行它,我得到了相同的结果。
非常感谢您的帮助。
r - 从需要使用 R 进行身份验证的 OPenDAP ncml 获取聚合数据
我正在尝试使用 R 中的raster
包从 NASA OPenDAP 服务器获取 TRMM 数据。最初我在身份验证方面遇到了一些困难,但该问题已解决。
NASA OPenDAP 服务器将 TRMM 3B42_daily 数据发布为单独的文件,每天一个,一个汇总的年度数据(使用 ncml)。所以,我现在的问题是,使用 Rraster
包和身份验证文件.dodsrc
,.netrc
我可以下载单个 NetCDF 文件,但我无法下载聚合数据。
所以,这有效:
这不会:
并给我错误信息:
是否可以从发布聚合数据的 OPenDAP 服务器获取数据?
r - 为什么我无法在 R studio 上使用 URL OpendDap 下载特定网格上的文件?
:D
我正在尝试在 R 软件中使用 OpenDap 下载许多文件,但我遇到了一个问题......确实,我想下载 2002 年至 2018 年 GHRSST 4 级 MUR 全球基金会海面温度分析 (v4.1) 的所有文件,因为我需要得到海冰分数。
但我只需要特定网格上的这些数据,所以我想创建一个循环来下载所有具有一些变量和 latitude / longitude 约束的文件。为了做到这一点,我获得了 2019 年 9 月 20 日(示例)的 URL: https ://podaac-opendap.jpl.nasa.gov:443/opendap/allData/ghrsst/data/GDS2/L4/ GLOB/JPL/MUR/v4.1/2017/263/20170920090000-JPL-L4_GHRSST-SSTfnd-MUR-GLOB-v02.0-fv04.1.nc?time[0:1:0],lat[2000:1 :4000],lon[18000:1:27000],sea_ice_fraction[0:1:0][2000:1:4000][18000:1:27000]
当我尝试通过 R 软件(函数 download.file)直接下载这个 URL 时,我有整个这个文件,整个地球上的所有变量,所以这是一个很大的问题,因为每个文件都生成 330 Mo ...我想要减少 100 个月的文件...
我在 R 工作室的功能是:download.file(" https://podaac-opendap.jpl.nasa.gov:443/opendap/allData/ghrsst/data/GDS2/L4/GLOB/JPL/MUR/v4.1/ 2017/263/20170920090000-JPL-L4_GHRSST-SSTfnd-MUR-GLOB-v02.0-fv04.1.nc?time[0:1:0],lat[2000:1:4000],lon[18000:1: 27000],sea_ice_fraction[0:1:0][2000:1:4000][18000:1:27000] ", "nc_20110910090000.nc.nc4",mode="wb") 希望你能帮助我...
亲切的问候,
亚历山大·莫迪
matlab - matlab ncread的数组大小限制
我发现当尝试使用 Matlab 和 ncread 通过 OPeNDAP 访问大(ish)数组时,结果在某个数组大小限制处返回全零。
我试图弄清楚这是 Matlab/ncread 限制还是 OPeNDAP 问题。
我正在通过 Matlab 的函数 访问通过OPeNDAP(确切地说是 GrADS-DODS)提供的数据集。ncread
如果我选择整个数组,即 192 x 94 x 58676(经度、纬度、时间),
ncread
不会引发错误,但结果数组全为零。例如,如果我对前 25,000 次进行子集化,则它可以正常工作。我怀疑有 2GB 的限制,但想确认一下。没有错误,而是返回零似乎也很奇怪。
java - 使用 netcdf-java 库或 java 中的其他方法访问 OPeNDAP 数据
我正在尝试从我的 Java Spring Boot 应用程序中的 NOAA nomads 服务器访问数据。 https://nomads.ncep.noaa.gov:9090/dods/wave/mww3
我一直在尝试使用 Netcdf-java 库通过 OPeNDAP 访问数据。根据文档(https://docs.unidata.ucar.edu/netcdf-java/5.2/userguide/dataset_urls.html),我应该能够访问远程网址:
但是我收到以下错误,我认为这可能是由于客户端不支持 https 和 opendap?:
python - 如何从 xarray 数据集中选择特定的数据变量
背景
我正在尝试通过 xarray 和 OPeNDAP 下载 GFS 天气数据 netcdf4 文件。非常感谢Vorticity0123之前的帖子,这使我能够对 python 脚本的骨骼进行排序(如下所示)。
问题
问题是,GFS 数据集有 195 个数据变量,但我不需要大多数,我只需要其中的 10 个。
- ugrd100m, vgrd100m, dswrfsfc, tcdcclm, tcdcblcll, tcdclcll, tcdcmcll, tcdchcll, tmp2m, gustsfc
请求帮助
我已经浏览了 xarray readthedocs 页面和其他地方,但我无法找到一种方法将我的数据集缩小到只有十个数据变量。有谁知道如何缩小数据集中的变量列表?
蟒蛇脚本
python-xarray - 使用 xarray 读取授权的 opendap url
我想使用 xarray 打开一个 opendap url。它需要授权,因为它在 UCAR RDA 持有:
https://rda.ucar.edu/datasets/ds084.1/#!description
一个文件的 url 如下 'https://rda.ucar.edu/thredds/dodsC/files/g/ds084.1/2020/20200101/gfs.0p25.2020010100.f000.grib2'
我不确定我是否可以将授权作为 backend_kwarg 传递?
下面的代码会给出一个错误信息
Siphon 的 session_manager 可能会暗示 auth 的样子https://unidata.github.io/siphon/latest/examples/Basic_Usage.html#sphx-glr-examples-basic-usage-py / https://github.com/Unidata /siphon/blob/master/siphon/http_util.py#L52
python-xarray - 读取远程数据集时的 xarray MissingDimensionsError (NBM)
在读取 NBM 的远程数据集(https://vlab.ncep.noaa.gov/web/mdl/nbm)时,我得到一个xarray.core.variable.MissingDimensionsError
. 我确定我在open_dataset
.
您可以在此处查看数据结构:https ://thredds-jumbo.unidata.ucar.edu/thredds/dodsC/grib/NCEP/NBM/CONUS/TwoD.html 。完整的结构在这里显示使用ncdump -h https://thredds-jumbo.unidata.ucar.edu/thredds/dodsC/grib/NCEP/NBM/CONUS/TwoD
使用的变量time1
:
- Precipitation_type_surface_probability_between_1p0_and_2
如果您删除此变量,则它会进入下一次变暗
完整回溯
你可以在本地测试