我有一个很大的数据集,基本上是几个csv文件。我现在正在做的是将所有内容组合在一起,然后创建一个单独的csv /数据帧。如下:
path = './path'
allFiles = glob.glob(path + "/*.csv")
list_ = []
for file_ in allFiles:
df = pd.read_csv(file_,index_col=None, header=0)
list_.append(df)
df_frame = pd.concat(list_)
然后它变得巨大。还有其他方法来训练带有多个数据文件的keras模型吗?