仅 的区别在于,传递给DataLoader的参数之一是“ numpy.array”类型,另一个是“ list”类型,但是DataLoader给出的结果完全不同。
您可以使用以下代码来重现它:
from torch.utils.data import DataLoader,Dataset
import numpy as np
class my_dataset(Dataset):
def __init__(self,data,label):
self.data=data
self.label=label
def __getitem__(self, index):
return self.data[index],self.label[index]
def __len__(self):
return len(self.data)
train_data=[[1,2,3],[5,6,7],[11,12,13],[15,16,17]]
train_label=[-1,-2,-11,-12]
########################### Look at here:
test=DataLoader(dataset=my_dataset(np.array(train_data),train_label),batch_size=2)
for i in test:
print ("numpy data:")
print (i)
break
test=DataLoader(dataset=my_dataset(train_data,train_label),batch_size=2)
for i in test:
print ("list data:")
print (i)
break
结果是:
numpy data:
[tensor([[1, 2, 3],
[5, 6, 7]]), tensor([-1, -2])]
list data:
[[tensor([1, 5]), tensor([2, 6]), tensor([3, 7])], tensor([-1, -2])]
答案 0 :(得分:2)
这是因为torch.utils.data.DataLoader
中如何处理批处理。 collate_fn
参数决定如何将样本中的样本合并为一个批次。此参数的默认值为未公开的torch.utils.data.default_collate
。
此函数通过假定数字/张量/ ndarrays是要批处理的原始数据并包含(作为递归)保留的包含这些原语的列表/元组/字典来处理批处理。这使您可以像这样进行语义批处理:
(input_tensor, label_tensor) -> (batched_input_tensor, batched_label_tensor)
([input_tensor_1, input_tensor_2], label_tensor) -> ([batched_input_tensor_1, batched_input_tensor_2], batched_label_tensor)
{'input': input_tensor, 'target': target_tensor} -> {'input': batched_input_tensor, 'target': batched_target_tensor}
(->
的左侧是数据集[i]的输出,而右侧是torch.utils.data.DataLoader
的批处理样本)
您的示例代码与上面的示例2相似:批处理int
时,列表结构得以保留。