超过最大执行时间的大数据集

时间:2013-02-11 11:14:27

标签: google-apps-script google-sheets

我有一个脚本将电子表格的内容加载到scriptDB中,但电子表格大约有15,000行,9列,并且不断给出“超出最大执行时间”错误。

我正在使用Google文档中提供的功能来加载数据:

function loadDatabaseFromSheet() {
  var spreadsheet = SpreadsheetApp.openById(SPREADSHEET_KEY);
  var sheet = spreadsheet.getActiveSheet();
  var columns = spreadsheet.getLastColumn();
  var data = sheet.getDataRange().getValues();
  var keys = data[0];
  var db = ScriptDb.getMyDb();
  for (var row = 1; row < data.length; row++) {
    var rowData = data[row];
    var item = {};
    for (var column = 0; column < keys.length; column++) {
      item[keys[column]] = rowData[column];
    }
    db.save(item);
  }
}

有什么方法可以加快速度,或者我只是要把它分解成几千块呢?

1 个答案:

答案 0 :(得分:4)

调用db.save(item) 15000次是造成缓慢的原因。相反,如果您要保存那么多数据,请使用bulk operations

  var db = ScriptDb.getMyDb();
  var items = [];
  for (var row = 1; row < data.length; row++) {
    var rowData = data[row];
    var item = {};
    for (var column = 0; column < keys.length; column++) {
      item[keys[column]] = rowData[column];
    }
    items.push(item);
  }
  db.saveBatch(items,false);

最后调用一次保存操作可以节省所有往返时间,因此这样可以加快代码的速度并在超过最大执行时间之前完成。