处理大量文件时出错

时间:2018-10-29 12:47:11

标签: r for-loop memory

我有数千个文件([一个文件的示例输入])1,我正在尝试通过以下代码进行处理:

for (x in files){

  message('Running: ',x)

  output <- tryCatch({

    ulfasQTL::findSqtl(x, geneObjectName = "gene_after_preprocess", snpFileCate = 1)

  }, print(x), error=function(e){cat("ERROR :",conditionMessage(e), "\n")})

    total.coefs <- rbind(total.coefs, output)
    write.table(total.coefs,file = 'Output_10', sep='\t')
    gc()

}

处理完几个文件后,它开始显示以下错误消息并被杀死:

  

错误:std :: bad_alloc

     

错误:无法分配大小为249.7 Mb的向量

     

被杀死

错误的可能原因是内存问题。我已经尝试修复它,但是我无法做到

任何帮助将不胜感激

0 个答案:

没有答案