微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

定期删除Hdfs文件脚本

#!/bin/bash
usage="$0 Usage: xx [days]"

if [ ! "$1" ]
then
  echo $usage
  exit 1
fi

Now=$(date +%s)
./hadoop fs -ls -r xxxx路径 | while read f; do
  #取文件串中的日期信息
  dir_date=`echo $f | awk '{print $6}'`
  difference=$(( ( $Now - $(date -d "$dir_date" +%s) ) / (24 * 60 * 60 ) ))
  if [ $difference -gt $1 ]; then
    #echo $f;
    dir=`echo $f | awk '{print $8}'`
    echo $dir >> ./toDelete.txt;
    ./hadoop fs -rm -r $dir;
  fi
done

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐