是否有一种方法可以使用文件对象(二进制流)或者从netCDF4数据集对象创建(打开/加载)虹膜多维数据集?
具体来说,我有一个通过URL提供的文件,但不是由OpenDAP服务器提供的; iris.load_cube()
和朋友对此失败。
我意识到Iris更喜欢延迟加载,因此使用URI而不是内存中的数据,但这并不总是可行的。
对于普通的netCDF4 Dataset
对象,我可以执行以下操作:
from urllib.request import urlopen
import netCDF4 as nc
url = 'https://crudata.uea.ac.uk/cru/data/temperature/HadCRUT.4.6.0.0.median.nc'
with urlopen(url) as stream:
ds = nc.Dataset('HadCRUT', memory=stream.read())
因此,我希望对Iris Cube
做类似的事情,或者将netCDF4数据集读入多维数据集,而无需通过磁盘上的临时文件。我曾希望Iris功能中可以有一些东西,但是我(尚未)无法在参考文档中找到它。
答案 0 :(得分:0)
要读取.nc
文件,Iris在内部使用了您提到的same netcdf4-python
库。
这意味着从理论上讲您可以:
子类CFReader覆盖了__init__
方法,唯一的变化是行self._dataset = netCDF4.Dataset(self._filename, mode='r')
要么编写将使用自定义CFReader的load_cube
函数(based on this code),要么可以使用自定义CFReader进行iris
的补丁。
猴子修补的一般想法:
from urllib.request import urlopen
import iris.fileformats.cf
import netCDF4 as nc
def __patch_CFReader():
if getattr(iris.fileformats.cf.CFReader, '_HACKY_PATCHED'):
return
from iris.fileformats.cf import CFReader
class CustomCFReader(CFReader):
_HACKY_PATCHED = True
def __init__(self, uri, *args, **kwargs):
# ... other code copied
with urlopen(url) as stream:
self._dataset = nc.Dataset('HadCRUT', memory=stream.read())
# ... other code copied
iris.fileformats.cf.CFReader = CustomCFReader
__patch_CFReader()
import iris
cube = iris.load_cube('https://crudata.uea.ac.uk/cru/data/temperature/HadCRUT.4.6.0.0.median.nc')
警告!根据项目中导入的方式,猴子修补可能会 并非总是像您首先想到的那样工作。所以也许您应该更喜欢使用一些图书馆 专为猴子修补设计的大猩猩:
https://gorilla.readthedocs.io/en/latest/tutorial.html
# my_patches.py:
from urllib.request import urlopen
import gorilla
import iris.fileformats.cf
import netCDF4 as nc
settings = gorilla.Settings(allow_hit=True)
@gorilla.patch(iris.fileformats.cf.CFReader, settings=settings)
def __init__(self, uri, *args, **kwargs):
# ... other code copied
with urlopen(url) as stream:
self._dataset = nc.Dataset('HadCRUT', memory=stream.read())
# ... other code copied
# earliest_imported_module.py:
import gorilla
import my_patches
for patch in gorilla.find_patches([my_patches]):
gorilla.apply(patch)