标签: pytorch
我知道增加工人数量会减少阅读批次的总时间,但我发现实际的培训时间scores = Model(batch)将花费越来越长的时间(虽然开始时很小,但会不断增加),训练继续循环 for i, batch in enumerate(train_data_loader): 另一方面,如果num_workers等于0,则在循环内的整个训练过程中,训练时间将是恒定的。 那是正常的吗?还是只在我身上发生?
scores = Model(batch)
for i, batch in enumerate(train_data_loader):
num_workers
0