全球主机交流论坛

标题: dropbox自动上传备份 并自动分日期删除远程过期文件 [打印本页]

作者: suwubee    时间: 2012-5-3 23:47
标题: dropbox自动上传备份 并自动分日期删除远程过期文件
本帖最后由 suwubee 于 2012-5-4 09:57 编辑

使用前请参考dropbox_uploader的使用办法,因为最下面是用dropbox uploader上传的,需申请dropbox api
  1. #!/bin/bash
  2. DROPBOX_DIR="/XXX"
  3. MYSQL_USER="root"
  4. MYSQL_PASS="XXX"
  5. YM_DATA=/usr/XXX
  6. BACK_DATA=/XXX
  7. DATA=/XXX

  8. #定义数据库的名字和旧数据库的名字
  9. DataBakName=Data_$(date +"%Y%m%d").tar.gz
  10. WebBakName=Web_$(date +%Y%m%d).tar.gz
  11. YMName=ym_$(date +%Y%m%d).tar.gz
  12. OldData=Data_$(date -d -3day +"%Y%m%d").tar.gz
  13. OldWeb=Web_$(date -d -3day +"%Y%m%d").tar.gz
  14. OldYM=YM_$(date -d -3day +"%Y%m%d").tar.gz

  15. #删除本地3天前的数据
  16. rm -rf $BACK_DATA/$OldData $BACK_DATA/$OldWeb $BACK_DATA/$OldYM

  17. cd $BACK_DATA

  18. #使用命令导出SQL数据库,并且按数据库分个压缩
  19. for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
  20.     (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
  21. done
  22. #压缩数据库文件合并为一个压缩文件
  23. tar zcf $BACK_DATA/$DataBakName $BACK_DATA/*.sql.gz
  24. rm -rf $BACK_DATA/*.sql.gz

  25. #压缩网站数据
  26. cd $DATA
  27. tar zcf $BACK_DATA/$WebBakName ./*

  28. #压缩域名信息,建议LNMP整个VPS迁移的话备份下这些子域名配置文件
  29. cd $YM_DATA
  30. tar zcf $BACK_DATA/$YMName ./*

  31. cd $BACK_DATA
  32. #开始上传
  33. sh dropbox_uploader.sh upload  $BACK_DATA/$DataBakName $DROPBOX_DIR/$DataBakName
  34. sh dropbox_uploader.sh upload  $BACK_DATA/$WebBakName $DROPBOX_DIR/$WebBakName
  35. sh dropbox_uploader.sh upload  $BACK_DATA/$YMName $DROPBOX_DIR/$YMName

  36. #开始删除远程3天前的文件
  37. sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldData
  38. sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldWeb
  39. sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldYM

  40. echo -e "Thank you! all down"
复制代码
api目前有个限制,关于太大的文件无法上传。大文件我传到30M左右就挂了。
此外阿里云的脚本已经完成,但是鉴于是国内机器,不便国外备份。
请关注此帖,正在考虑最佳方案。

我的博客:http://bing.sudake.cn/

经常会写错变量,不好意思。已修改~
作者: master    时间: 2012-5-3 23:50
技术贴留名
作者: 云生    时间: 2012-5-3 23:51
本帖最后由 云生 于 2012-5-3 23:54 编辑

收藏,
30M 就不能上传这怎么行啊。
数据库一压缩,很快就超过30M了
作者: 永世的缘    时间: 2012-5-4 00:07
api据说是有限制,但不应该传30多M就有问题,我传80多M的文件都可以呀.
作者: 茶几    时间: 2012-5-4 00:42
提示: 作者被禁止或删除 内容自动屏蔽
作者: 挨个搞    时间: 2012-5-4 01:07
何苦啊。dropbox本来就能保存30天的不同的版本
根本没必要去删除

api和网页上传最大都是300m
作者: ppt111    时间: 2012-5-4 01:24
收藏
作者: godstar    时间: 2012-5-4 01:36
量小非君子呀。。30M不够。。。80M也不够啊..
作者: wst321    时间: 2012-5-4 01:37
MARK

作者: vagaa    时间: 2012-5-4 01:43
数据这么重要为什么都不买 备份空间啊
作者: 雲中鶴    时间: 2012-5-4 02:05
g grive 有沒有類似的方法來備份?
作者: 336335    时间: 2012-5-4 06:44
数据库一压缩,很快就超过30M了
作者: 火雪心    时间: 2012-5-4 06:53
与FTP相差无几啊
作者: 誓誓    时间: 2012-5-4 08:49
挽尊
作者: lazyzhu    时间: 2012-5-4 08:51
挨个搞 发表于 2012-5-4 01:07
何苦啊。dropbox本来就能保存30天的不同的版本
根本没必要去删除

脱裤子放屁,
作者: theiter    时间: 2012-5-4 09:03
我也来mark一下




欢迎光临 全球主机交流论坛 (https://sunk.eu.org/) Powered by Discuz! X3.4