为什么pytorch DataLoader在numpy数组和列表上的行为有所不同?

时间:2018-10-15 13:42:15

标签: python list numpy iterator pytorch

的区别在于,传递给DataLoader的参数之一是“ numpy.array”类型,另一个是“ list”类型,但是DataLoader给出的结果完全不同。

您可以使用以下代码来重现它:

from torch.utils.data import DataLoader,Dataset
import numpy as np

class my_dataset(Dataset):
    def __init__(self,data,label):
        self.data=data
        self.label=label          
    def __getitem__(self, index):
        return self.data[index],self.label[index]
    def __len__(self):
        return len(self.data)

train_data=[[1,2,3],[5,6,7],[11,12,13],[15,16,17]]
train_label=[-1,-2,-11,-12]

########################### Look at here:    

test=DataLoader(dataset=my_dataset(np.array(train_data),train_label),batch_size=2)
for i in test:
    print ("numpy data:")
    print (i)
    break


test=DataLoader(dataset=my_dataset(train_data,train_label),batch_size=2)
for i in test:
    print ("list data:")
    print (i)
    break

结果是:

numpy data:
[tensor([[1, 2, 3],
        [5, 6, 7]]), tensor([-1, -2])]
list data:
[[tensor([1, 5]), tensor([2, 6]), tensor([3, 7])], tensor([-1, -2])]  

1 个答案:

答案 0 :(得分:2)

这是因为torch.utils.data.DataLoader中如何处理批处理。 collate_fn参数决定如何将样本中的样本合并为一个批次。此参数的默认值为未公开的torch.utils.data.default_collate

此函数通过假定数字/张量/ ndarrays是要批处理的原始数据并包含(作为递归)保留的包含这些原语的列表/元组/字典来处理批处理。这使您可以像这样进行语义批处理:

  1. (input_tensor, label_tensor) -> (batched_input_tensor, batched_label_tensor)
  2. ([input_tensor_1, input_tensor_2], label_tensor) -> ([batched_input_tensor_1, batched_input_tensor_2], batched_label_tensor)
  3. {'input': input_tensor, 'target': target_tensor} -> {'input': batched_input_tensor, 'target': batched_target_tensor}

->的左侧是数据集[i]的输出,而右侧是torch.utils.data.DataLoader的批处理样本)

您的示例代码与上面的示例2相似:批处理int时,列表结构得以保留。