如何删除S3中超过7天的文件?

时间:2018-05-22 12:27:52

标签: file amazon-web-services amazon-s3 delete-file

需要删除S3中超过7天的文件,需要一个shell脚本来执行此操作,没有运气与谷歌搜索,我发现下面的网址

http://shout.setfive.com/2011/12/05/deleting-files-older-than-specified-time-with-s3cmd-and-bash/

它对我们没有帮助,是否有人有脚本删除超过7天的所有文件?

6 个答案:

答案 0 :(得分:2)

最简单的方法是在Amazon S3存储桶上定义Object Lifecycle Management

您可以指定超过特定天数的对象应已过期(已删除)。最好的部分是这种情况会定期自动发生,您不需要运行自己的脚本。

如果您想自己动手,最好是编写一个脚本(例如在Python中)来检索文件列表并删除早于某个日期的文件。

示例:GitHub - jordansissel/s3cleaner: Amazon S3 file cleaner - delete things older than a certain age, matching a pattern, etc.

作为shell脚本做起来有些麻烦。

答案 1 :(得分:1)

谢谢,约翰

我们对代码进行了一点修改,但工作正常。

   aws s3 ls BUCKETNAME/ | while read -r line;
       do
        createDate=`echo $line|awk {'print $1" "$2'}`
        createDate=`date -d"$createDate" +%s`
        olderThan=`date --date "7 days ago" +%s`
        if [[ $createDate -lt $olderThan ]]
           then
            fileName=`echo $line|awk {'print $4'}`

            if [[ $fileName != "" ]]
            then
                    aws s3 rm BUCKETNAME/$fileName
            fi
       fi

       done; 

答案 2 :(得分:0)

这是我为环境编写的一个简单脚本,希望有人会发现它有用。谢谢。

而且,我的s3存储桶中的文件为FULL_BACKUP_2020-06-25.tar.gz格式。

#!/bin/bash

#Defining variables.
#Date=`date +%Y-%m-%d`
ThreeDaysOldDate=`date -d '-3 days' +%Y-%m-%d | tr -d '-'`
Obj=`/usr/local/bin/aws s3 ls s3://bucket_name/folder/ | sed -n '2,$'p | awk '{print $4}'| cut -b 13-22 | tr -d '-'`

#Comparing files older than past 3 days and removing them from S3.
for i in $Obj
do
    if [ $i -lt $ThreeDaysOldDate ]; then
        var1="FULL_BACKUP_"
        var2=".tar.gz"
        year=$(echo $i | cut -c 1-4)
        mon=$(echo $i | cut -c 5-6)
        day=$(echo $i | cut -c 7-8)
        DATE=$var1$year-$mon-$day$var2
        /usr/local/bin/aws s3 rm s3://bucket_name/folder/$DATE > /dev/null 2>&1
    fi
done

答案 3 :(得分:0)

这将从S3存储桶中递归删除159天的过期文件。您可以根据需要更改日期。其中包含带空格的文件名。上面的脚本不适用于带空格的文件名。

注意:现有目录结构可能会被删除。如果您不喜欢目录结构,可以使用它。

如果您希望使用目录结构,请提供最后一个子目录的完整路径,并在每次执行时对其进行修改,以保护父目录结构

示例:

s3:// BucketName / dir1 / dir2 / dir3 /

s3:// BucketName / dir1 / dir2 / dir4 /

s3:// BucketName / dir1 / dir2 / dir5 /

vim s3_file_delete.sh

s3bucket="s3://BucketName"
s3dirpath="s3://BucketName/WithOrWithoutDirectoryPath/"
aws s3 ls $s3dirpath --recursive | while read -r line;
    do
     createDate=`echo $line|awk {'print $1" "$2'}`
     createDate=`date -d"$createDate" +%s`
     olderThan=`date --date "159 days ago" +%s`
     if [[ $createDate -lt $olderThan ]]
        then
         fileName=`echo $line|awk '{a="";for (i=4;i<=NF;i++){a=a" "$i}print a}' |awk '{ sub(/^[ \t]+/, ""); print }'`

         if [[ $fileName != "" ]]
         then
                 #echo "$s3bucket/$fileName"
                 aws s3 rm "$s3bucket/$fileName"
         fi
    fi

    done;

答案 4 :(得分:0)

感谢您的回答,我稍微修改了 Prabhu R 中的那个,以便能够在 MacOsX 上执行 shell 脚本(我用 High Sierra 测试过)

BUCKETNAME=s3://BucketName/WithOrWithoutDirectoryPath/
aws s3 ls $BUCKETNAME | while read -r line;
do
  createDate=`echo $line|awk {'print $1" "$2'}`
  createDate=`gdate -d"$createDate" +%s` 
  olderThan=`gdate '+%s' -d '1 week ago'`
  if [[ $createDate -lt $olderThan ]]
    then
      fileName=`echo $line|awk {'print $4'}`
      if [[ $fileName != "" ]]
        then
          echo "deleting " $BUCKETNAME$fileName
          aws s3 rm $BUCKETNAME$fileName
      fi
  fi
done;

答案 5 :(得分:0)

我正在寻找 s3cmd 命令来删除超过 N 天的文件,这对我有用

s3cmd ls s3://your-address-here/ | awk -v dys="2" 'BEGIN { depoch=(dys*86400);cepoch=(systime()-depoch) } { gsub("-"," ",$1);gsub(":"," ",$2 );if (mktime($1" "$2" 00")<=cepoch) { print "s3cmd del "$4 } }' | bash