全球主机交流论坛

标题: 200多m的数据 [打印本页]

作者: pigicoffee    时间: 2009-10-13 12:39
标题: 200多m的数据
用虚拟主机怎么最快的备份出来呢?
作者: skyover    时间: 2009-10-13 12:43
写个程序去zip,然后下载
作者: cpuer    时间: 2009-10-13 13:30
标题: 回复 1# 的帖子
支持SSH的话用mysqldump吧。
作者: summer1ove    时间: 2009-10-13 16:43
wget -nH --cut-dirs=* -m --ftp-user=* --ftp-password=* ftp://*.*.*.*/*

-nH:不创建以主机名命名的目录。
--cut-dirs:忽略主机上的目录层数。
-m:下载所有子目录并且保留目录结构。
--ftp-user:FTP用户名
--ftp-password:FTP密码
ftp://*.*.*.*/*:FTP主机地址。最后可以跟目录名来下载指定目录。
作者: pigicoffee    时间: 2009-10-13 17:13
这个不错~~~dz的全部吗?
作者: freebsd    时间: 2009-10-13 17:29
用那个帝国备份王,很NB的
作者: shinko    时间: 2009-10-13 17:40
原帖由 freebsd 于 2009-10-13 17:29 发表
用那个帝国备份王,很NB的

作者: cnx    时间: 2009-10-13 19:21
你是数据库还是网页文件啊。
网页文件的话可以试试我那个a2b程序。

作者: 宋兵乙    时间: 2009-10-13 20:05
哈哈,我有一个php在线压缩和解压程序,几十K
作者: pigicoffee    时间: 2009-10-13 22:12
数据和网页 想整体做个备份
作者: cpuer    时间: 2009-10-14 00:00
标题: 回复 10# 的帖子
数据库用帝国备份王,网页用压缩
作者: pigicoffee    时间: 2009-10-14 00:17
用虚拟主机怎么压缩啊
作者: cpuer    时间: 2009-10-14 00:28
标题: 回复 12# 的帖子
如9楼所说,用程序在线压缩。
作者: pigicoffee    时间: 2009-10-14 01:28
准备用下四楼的东西看看
作者: cnx    时间: 2009-10-14 07:53
原帖由 pigicoffee 于 2009-10-14 00:17 发表
用虚拟主机怎么压缩啊


联系客服是最好的办法。

作者: cpuer    时间: 2009-10-14 10:16
标题: 回复 15# 的帖子
由客服代劳
作者: pigicoffee    时间: 2009-10-14 10:17
发现自己以前留下的数据好多~~~~
作者: cpuer    时间: 2009-10-14 11:11
标题: 回复 17# 的帖子
呵呵,几百兆的数据库算比较多的了。
作者: pigicoffee    时间: 2009-10-14 11:13
还好累积了5年,另外还有2G的图片之类的
作者: cpuer    时间: 2009-10-14 11:24
标题: 回复 19# 的帖子
5年的站点权重应该很高了。
作者: pigicoffee    时间: 2009-10-14 11:25
米 不高~~~~~~~只有3~~
作者: cpuer    时间: 2009-10-14 11:31
标题: 回复 21# 的帖子
老米不错的。
作者: pigicoffee    时间: 2009-10-14 11:48
我汗 那时候什么都不懂
作者: cpuer    时间: 2009-10-14 12:40
标题: 回复 23# 的帖子
那个时侯兴趣很足。




欢迎光临 全球主机交流论坛 (https://sunk.eu.org/) Powered by Discuz! X3.4