从文件对象或netCDF4数据集创建虹膜多维数据集

时间:2019-05-08 11:02:34

标签: python python-iris

是否有一种方法可以使用文件对象(二进制流)或者从netCDF4数据集对象创建(打开/加载)虹膜多维数据集?

具体来说,我有一个通过URL提供的文件,但不是由OpenDAP服务器提供的; iris.load_cube()和朋友对此失败。

我意识到Iris更喜欢延迟加载,因此使用URI而不是内存中的数据,但这并不总是可行的。

对于普通的netCDF4 Dataset对象,我可以执行以下操作:

from urllib.request import urlopen
import netCDF4 as nc

url = 'https://crudata.uea.ac.uk/cru/data/temperature/HadCRUT.4.6.0.0.median.nc'
with urlopen(url) as stream:
    ds = nc.Dataset('HadCRUT', memory=stream.read())

因此,我希望对Iris Cube做类似的事情,或者将netCDF4数据集读入多维数据集,而无需通过磁盘上的临时文件。我曾希望Iris功能中可以有一些东西,但是我(尚未)无法在参考文档中找到它。

1 个答案:

答案 0 :(得分:0)

要读取.nc文件,Iris在内部使用了您提到的same netcdf4-python库。

这意味着从理论上讲您可以:

  1. 子类CFReader覆盖了__init__方法,唯一的变化是行self._dataset = netCDF4.Dataset(self._filename, mode='r')

  2. 要么编写将使用自定义CFReader的load_cube函数(based on this code),要么可以使用自定义CFReader进行iris的补丁。

    li>

猴子修补的一般想法:

from urllib.request import urlopen

import iris.fileformats.cf
import netCDF4 as nc


def __patch_CFReader():
    if getattr(iris.fileformats.cf.CFReader, '_HACKY_PATCHED'):
        return

    from iris.fileformats.cf import CFReader

    class CustomCFReader(CFReader):
        _HACKY_PATCHED = True

        def __init__(self, uri, *args, **kwargs):
            # ... other code copied
            with urlopen(url) as stream:
                self._dataset = nc.Dataset('HadCRUT', memory=stream.read())
            # ... other code copied

    iris.fileformats.cf.CFReader = CustomCFReader


__patch_CFReader()

import iris
cube = iris.load_cube('https://crudata.uea.ac.uk/cru/data/temperature/HadCRUT.4.6.0.0.median.nc')

警告!根据项目中导入的方式,猴子修补可能会 并非总是像您首先想到的那样工作。所以也许您应该更喜欢使用一些图书馆 专为猴子修补设计的大猩猩:

https://gorilla.readthedocs.io/en/latest/tutorial.html

# my_patches.py:
from urllib.request import urlopen

import gorilla
import iris.fileformats.cf
import netCDF4 as nc

settings = gorilla.Settings(allow_hit=True)

@gorilla.patch(iris.fileformats.cf.CFReader, settings=settings)
def __init__(self, uri, *args, **kwargs):
    # ... other code copied
    with urlopen(url) as stream:
        self._dataset = nc.Dataset('HadCRUT', memory=stream.read())
    # ... other code copied

# earliest_imported_module.py:
import gorilla
import my_patches

for patch in gorilla.find_patches([my_patches]):
    gorilla.apply(patch)