所以我有 3 个 netcdf4 文件(每个大约 90 MB),我想使用包 xarray 连接它们。每个文件都有一个变量 (dis),以 0.5 度分辨率(纬度、经度)表示 365 天(时间)。我的目标是连接三个文件,使我们有 1095 天(3 年)的时间序列。
每个文件(对于 2007 年、2008 年、2009 年)具有: 1 个变量:dis 3 个坐标:时间、纬度、经度......
<xarray.Dataset>
Dimensions: (lat: 360, lon: 720, time: 365)
Coordinates:
* lon (lon) float32 -179.75 -179.25 -178.75 -178.25 -177.75 -177.25 ...
* lat (lat) float32 89.75 89.25 88.75 88.25 87.75 87.25 86.75 86.25 ...
* time (time) datetime64[ns] 2007-01-01 2007-01-02 2007-01-03 ...
Data variables:
dis (time, lat, lon) float64 nan nan nan nan nan nan nan nan nan ...
我将它们导入并使用 concat 模块进行连接,我认为是成功的。在这种情况下,模块从 filestrF 中读出 3 个 netcdf 文件名
flist1 = [1,2,3]
ds_new = xr.concat([xr.open_dataset(filestrF[0,1,1,f]) for f in flist1],dim='time')
新数据集的新细节现在显示为:
Dimensions: (lat: 360, lon: 720, time: 1095)
对我来说似乎很好。但是,当我将此数据集写回 netcdf 时,文件大小现在已经爆炸式增长,1 年的数据似乎相当于 700 MB。
ds_new.to_netcdf('saved_on_disk1.nc')
- 对于 2 个串联文件,~1.5 GB
- 对于 3 ,, ,, 2.2 GB
- 对于 4 ,, ,, 2.9 GB
我本来期望 3 x 90 MB = 270 MB - 因为我们在一维(时间)上缩放(3x)。变量、dis 和其他维度 lat 和 lon 的大小保持不变。
任何想法请为巨大的高档尺寸?我已经测试了在没有连接的情况下读入和写回文件,并且在没有增加大小的情况下成功地做到了这一点。