Google驱动器重复文件

时间:2015-02-12 18:55:53

标签: google-apps-script google-drive-api google-sheets

我有这个代码删除重复的文件,但它没有按照需要工作,它在电子表格上,你去工具,点击脚本管理器,给你三个按钮

StartProcess

标记重复

deleteDuplicates

第一个文件检索文件,第二个文件以浅红色显示重复文件,第三个文件将删除它们并将它们变为红色,但它正在做的是将它们变成黄色而我#&# 39; m无法在哪里找到错误请有人帮助我

function startProcess(){
  PropertiesService.getScriptProperties().deleteAllProperties();
  try{
    ScriptApp.deleteTrigger(ScriptApp.getProjectTriggers()[0]);
  }catch(e){}
  var sh = SpreadsheetApp.getActiveSheet();
  sh.getDataRange().clear();
  sh.getRange(1,1,1,4).setValues([['fileName (logged @'+Utilities.formatDate(new Date(),Session.getScriptTimeZone(),'MMM-dd-yyyy HH:mm')+')','fileSize','parent folders tree','fileID']]);
  var trig = ScriptApp.newTrigger('getDriveFilesList_').timeBased().everyMinutes(5).create();
  Logger.log(trig.getUniqueId()+'  '+trig.getHandlerFunction());
  getDriveFilesList_();
}

function getDriveFilesList_(){
  var content = [];
  var startTime = new Date().getTime();
  var sh = SpreadsheetApp.getActiveSheet();
  if( ! PropertiesService.getScriptProperties().getProperty('numberOfFiles')){
    PropertiesService.getScriptProperties().setProperty('numberOfFiles',0);
  }

  var numberOfFiles = Number(PropertiesService.getScriptProperties().getProperty('numberOfFiles'));
  Logger.log(numberOfFiles);
  var max = numberOfFiles+10000;
  if( ! PropertiesService.getScriptProperties().getProperty('continuationToken')){
    var files = DriveApp.getFiles();
   // var files = DriveApp.getFolderById('0B3qSFd_____MTFZMDQ').getFiles();// use this line and comment the above if you want to process a single folder
   // use your chozen folder ID of course (available from the browser url , the part after "https://drive.google.com/?authuser=0#folders/")
  }else{
    var files = DriveApp.continueFileIterator(PropertiesService.getScriptProperties().getProperty('continuationToken'))
    }
  while(files.hasNext() && numberOfFiles<(max)){
    var file = files.next()
    if(file.getSize()>0){
      numberOfFiles++;
      var folder = '(shared)';
      if(file.getParents().hasNext()){folder = getTree_(file)}
      content.push([file.getName(),file.getSize(),folder,file.getId()])
    }    
    if(new Date().getTime()-startTime > 250000){break};
  }
  sh.getRange(sh.getLastRow()+1,1,content.length,content[0].length).setValues(content);
  if(!files.hasNext()){ScriptApp.deleteTrigger(ScriptApp.getProjectTriggers()[0]);Logger.log('done !'); sh.getRange(sh.getLastRow()+1,1).setValue('All files processed ('+numberOfFiles+' found)')};
  var continuationToken = files.getContinuationToken()
  PropertiesService.getScriptProperties().setProperty('numberOfFiles',numberOfFiles);
  PropertiesService.getScriptProperties().setProperty('continuationToken',continuationToken);
}

function markDuplicates(){
  handleDuplicates_(false)
}

function trashDuplicates(){
  handleDuplicates_(true)
}

function handleDuplicates_(trash){  
  var sh = SpreadsheetApp.getActiveSheet();
  sh.setFrozenRows(1);
  sh.sort(1);
  var data = sh.getDataRange().getValues()
  var headers = data.shift()
  var lastComment = data.pop();
  var toDelete = [];
  var item = data[0];
  for(var n=1 ; n<data.length; n++){
    if(data[n][0]==item[0] && data[n][1]==item[1]){
      toDelete.push('delete '+ n);
    }
    item=data[n];
  }
  var marker =   sh.getRange(2,1,data.length,1).getBackgrounds();
  for(var n in data){
    if(!trash){marker.push(['#FFF'])};
    if(toDelete.indexOf('delete '+n)>-1 && !trash){
      marker[n][0] = '#F99';
    }
    if(toDelete.indexOf('delete '+n)>-1 && trash){
      if(marker[n][0]==='#ff9999'){
        try{
        DriveApp.getFileById(data[n][3]).setTrashed(trash);
        marker[n][0] = '#F33';
        }catch(err){Logger.log(err)}
      }else{
        marker[n][0] = '#FF9';  3
      }
    }
  }
  sh.getRange(2,1,marker.length,1).setBackgrounds(marker);
}

function getTree_(file){
  var tree = [];
  var folderP = file.getParents()
  while (folderP.hasNext()){
    var folder = folderP.next();
    folderP = folder.getParents();
    tree.push(folder.getName());
  }
  return tree.reverse().join('/');
}

2 个答案:

答案 0 :(得分:1)

我在你的代码中发现了一些问题所以我创建了一个新的ajrHandleDuplicates_(),这似乎可以解决你的问题。我只在一个文件夹中运行简单的测试,并且我已经禁用了继续触发器。

您可以从this sheet运行脚本(并获取副本,但您已获得编辑权限),您可以将文件拖放到this folder进行测试(您将看到结果我的最后一次测试)。我在桌面上制作了一个小文本文件并将其删除并重命名。

答案 1 :(得分:0)

我试图在给定的答案中使用该脚本,但发现它根本不起作用。该代码的组织性很差,似乎缺少相关部分。即使代码可以正常工作,我也不希望它运行得很好,因为Google App Script limits会很快被击中。以下是脚本可能遇到的一些限制:

  1. 30秒限制-自定义功能只能运行30秒,这几乎不足以扫描大多数Google云端硬盘帐户中的所有文件。
  2. 6分钟限制-如果未达到自定义功能限制,我们将达到6分钟脚本执行限制。
  3. 内存限制-没有记录此限制,但是存储每个被扫描以与其他文件进行比较的文件将很快达到内存限制。

而且,我不信任该脚本,因为它似乎没有在每个文件上比较MD5。

我的建议是不要尝试解决Google表格中的此问题。而是使用Google Drive's API在工作表外部构建代码。或更简单的方法是使用Clean Drive for Google Drive,它将为您找到重复的文件。它可以处理具有数百万个文件的大型帐户,并且不会遇到上述任何限制问题。

仅供参考,我是Clean Drive的创建者,所以我有一点偏见,但我认为如果您使用它,也会有所作为。 ?