提取补丁并重建图像

时间:2019-06-07 11:13:42

标签: python numpy deep-learning medical

我正在尝试执行分割任务,由于gpu内存限制,由于无法立即处理图像,因此图像是3d卷,我正在提取图像补丁并对它们执行操作。

提取我的补丁

    def cutup(data, blck, strd):
        sh = np.array(data.shape)
        blck = np.asanyarray(blck)
        strd = np.asanyarray(strd)
        nbl = (sh - blck) // strd + 1
        strides = np.r_[data.strides * strd, data.strides]
        dims = np.r_[nbl, blck]
        data6 = stride_tricks.as_strided(data, strides=strides, shape=dims)
        return data6.reshape(-1, *blck)

    def make_patches(image_folder, mask_folder):
        '''
        Given niigz image and mask files will create numpy files 
        '''
        for image, mask in tqdm.tqdm(zip(os.listdir(image_folder), os.listdir(mask_folder))):
            mask_ = mask
            mask = mask.split('_')
            image = mask[0]
            image_name = mask[0]
            mask_name = mask[0]
            image, mask = read_image_and_seg(os.path.join(image_folder, image), os.path.join(mask_folder,mask_))
            if image.shape[1] > 600:
                image = image[:,:600,:]
            desired_size_w = 896
            desired_size_h = 600
            desired_size_z = 600
            delta_w = desired_size_w - image.shape[0]
            delta_h = desired_size_h - image.shape[1]
            delta_z = desired_size_z - image.shape[2]

            padded_image =np.pad(image, ((0,delta_w), (0,delta_h), (0, delta_z)), 'constant')
            padded_mask  =np.pad(mask, ((0,delta_w), (0,delta_h), (0, delta_z)), 'constant')
            y  = cutup(padded_image, (128,128,128),(128,128,128))#Actually extract more patches by changing stride size
            y_ = cutup(padded_mask,  (128,128,128),(128,128,128))
            print(image_name)
            for index, (im , label) in enumerate(zip(y , y_)):
                if len(np.unique(im)) ==1:
                    continue
                else:
                    if not os.path.exists(os.path.join('../data/patches/images/',image_name.split('.')[0]+str(index))):
                        np.save(os.path.join('../data/patches/images/',image_name.split('.')[0]+str(index)), im)
                        np.save(os.path.join('../data/patches/masks/', image_name.split('.')[0]+str(index)), label)

现在,这将提取非重叠的补丁,并以numpy数组的形式提供补丁,就像我将图像转换为shape(填充0)896,640,640一样,这样我就可以提取所有补丁

问题是我不知道上面的代码是否有效!测试它是否要提取补丁,然后获取这些补丁并重建图像,现在我不确定如何解决这个问题,

现在这就是我所拥有的

    def reconstruct_image(folder_path_of_npy_files):
        slice_shape = len(os.listdir(folder_path_of_npy_files))
        recon_image = np.array([])
        for index, file in enumerate(os.listdir(folder_path_of_npy_files)):
            read_image = np.load(os.path.join(folder_path_of_npy_files, file))
            recon_image = np.append(recon_image, read_image)
        return recon_image

但是这不起作用,因为它会构成(x,128,128,128)的数组并不断填充第0维。

所以我的问题是,如何重建图像?还是只有一种更好的提取和重建补丁的方法。

谢谢。

1 个答案:

答案 0 :(得分:0)

如果事情相当简单(不是滑动窗口),则可以使用skimage.util.shape.view_as_blocks。例如:

import numpy as np
import skimage

# Create example
data = np.random.random((200,200,200))

blocks = skimage.util.shape.view_as_blocks(data, (10, 10, 10))

# Do the processing on the blocks here.
processed_blocks = blocks

new_data = np.reshape(process_blocks, (200, 200, 200))

但是,如果遇到内存限制问题,这可能不是最好的方法,因为您将要多次复制原始数据(数据,块,new_data)等,因此您可能必须考虑这样做比这里的示例聪明一点。

如果遇到内存问题,则可以非常小心地执行另一件事,就是更改数据的基础数据类型。例如,当我做MRI数据时,大多数原始数据都是整数形式的,但Python会将其表示为float64。如果您可以接受一些四舍五入的数据,那么您可以可以执行以下操作:

import numpy as np
import skimage

# Create example
data = 200*np.random.random((200,200,200)).astype(np.float16)  # 2 byte float

blocks = skimage.util.shape.view_as_blocks(data, (10, 10, 10))

# Do the processing on the blocks here.

new_data = np.reshape(blocks, (200, 200, 200))

此版本使用:

In [2]: whos
Variable   Type       Data/Info
-------------------------------
blocks     ndarray    20x20x20x10x10x10: 8000000 elems, type `float16`, 16000000 bytes (15.2587890625 Mb)                                                                                              
data       ndarray    200x200x200: 8000000 elems, type `float16`, 16000000 bytes (15.2587890625 Mb)
new_data   ndarray    200x200x200: 8000000 elems, type `float16`, 16000000 bytes (15.2587890625 Mb)

vs第一个版本:

In [2]: whos
Variable   Type       Data/Info
-------------------------------
blocks     ndarray    20x20x20x10x10x10: 8000000 elems, type `float64`, 64000000 bytes (61.03515625 Mb)                                                                                                
data       ndarray    200x200x200: 8000000 elems, type `float64`, 64000000 bytes (61.03515625 Mb)
new_data   ndarray    200x200x200: 8000000 elems, type `float64`, 64000000 bytes (61.03515625 Mb)

因此,执行np.float16可以为您节省大约4的RAM。

但是,进行此类更改会对数据和算法(可能的取整问题等)进行假设。