全球主机交流论坛
标题:
200多m的数据
[打印本页]
作者:
pigicoffee
时间:
2009-10-13 12:39
标题:
200多m的数据
用虚拟主机怎么最快的备份出来呢?
作者:
skyover
时间:
2009-10-13 12:43
写个程序去zip,然后下载
作者:
cpuer
时间:
2009-10-13 13:30
标题:
回复 1# 的帖子
支持SSH的话用mysqldump吧。
作者:
summer1ove
时间:
2009-10-13 16:43
wget -nH --cut-dirs=* -m --ftp-user=* --ftp-password=* ftp://*.*.*.*/*
-nH:不创建以主机名命名的目录。
--cut-dirs:忽略主机上的目录层数。
-m:下载所有子目录并且保留目录结构。
--ftp-user:FTP用户名
--ftp-password:FTP密码
ftp://*.*.*.*/*:FTP主机地址。最后可以跟目录名来下载指定目录。
作者:
pigicoffee
时间:
2009-10-13 17:13
这个不错~~~dz的全部吗?
作者:
freebsd
时间:
2009-10-13 17:29
用那个帝国备份王,很NB的
作者:
shinko
时间:
2009-10-13 17:40
原帖由
freebsd
于 2009-10-13 17:29 发表
用那个帝国备份王,很NB的
作者:
cnx
时间:
2009-10-13 19:21
你是数据库还是网页文件啊。
网页文件的话可以试试我那个a2b程序。
作者:
宋兵乙
时间:
2009-10-13 20:05
哈哈,我有一个php在线压缩和解压程序,几十K
作者:
pigicoffee
时间:
2009-10-13 22:12
数据和网页 想整体做个备份
作者:
cpuer
时间:
2009-10-14 00:00
标题:
回复 10# 的帖子
数据库用帝国备份王,网页用压缩
作者:
pigicoffee
时间:
2009-10-14 00:17
用虚拟主机怎么压缩啊
作者:
cpuer
时间:
2009-10-14 00:28
标题:
回复 12# 的帖子
如9楼所说,用程序在线压缩。
作者:
pigicoffee
时间:
2009-10-14 01:28
准备用下四楼的东西看看
作者:
cnx
时间:
2009-10-14 07:53
原帖由
pigicoffee
于 2009-10-14 00:17 发表
用虚拟主机怎么压缩啊
联系客服是最好的办法。
作者:
cpuer
时间:
2009-10-14 10:16
标题:
回复 15# 的帖子
由客服代劳
作者:
pigicoffee
时间:
2009-10-14 10:17
发现自己以前留下的数据好多~~~~
作者:
cpuer
时间:
2009-10-14 11:11
标题:
回复 17# 的帖子
呵呵,几百兆的数据库算比较多的了。
作者:
pigicoffee
时间:
2009-10-14 11:13
还好累积了5年,另外还有2G的图片之类的
作者:
cpuer
时间:
2009-10-14 11:24
标题:
回复 19# 的帖子
5年的站点权重应该很高了。
作者:
pigicoffee
时间:
2009-10-14 11:25
米 不高~~~~~~~只有3~~
作者:
cpuer
时间:
2009-10-14 11:31
标题:
回复 21# 的帖子
老米不错的。
作者:
pigicoffee
时间:
2009-10-14 11:48
我汗 那时候什么都不懂
作者:
cpuer
时间:
2009-10-14 12:40
标题:
回复 23# 的帖子
那个时侯兴趣很足。
欢迎光临 全球主机交流论坛 (https://sunk.eu.org/)
Powered by Discuz! X3.4