一般用mysqldump,可以压缩
例如
mysqldump --opt dadabase |gzip > backup.gz

解决方案 »

  1.   

    这个在php程序里是不是有什么要求才可以执行?
    我的执行不了。提示:unable to fork[...]之类的。
      

  2.   

    最好还是启用热备份,下载专用的备份软件MySQL Extract,都是很不错的.实在不行就直接复制数据库文件也不错,而且很快的.
      

  3.   

    应该没有问题
    不知大家怎么维护数据库的
    我每一周都要
    OPTIMIZE TABLE
    下。
      

  4.   

    先试试shell_exec,应该可以还可以用Zlib压缩,如果服务器支持再不看这里http://ca3.php.net/manual/en/ref.zip.php,看下面notes里面的第一条
      

  5.   

    OPTIMIZE TABLE
    这种优化有什么用?数据读取会快起来吗?
      

  6.   

    OPTIMIZE TABLE不错的,还是建议用用的。它就是把所有记录重新写一边。
      

  7.   

    本人的做法是在linux 里面用一段 shell 代码实现自动备份
    其实也是 mysqldump导入就用 mysql  就可以了几十M没有问题,再大没有试过隔段时间再用后动把数据放到本机
      

  8.   

    我认为如果数据量太大的话不适合用PHP(B/S结构).因为PHP脚本的执行有时间限制.
    php.ini
    =====
    max_execution_time = 30 
    =====
    另外如果取出的数据用文本方式保存会很大.
      

  9.   

    大数据库的导入不可能用PHP来实现的!1. PHP的处理能力有限
    2. PHP的运行时间有限制,不论如何调,还是不可能得到理想的效果其实我用的不是散表,是整库的导入,几十个表,最大的几个表有十几W条记录
      

  10.   

    PHP执行时间可以设置的。
    我也是全部放在一个文本文件里,目前用我想是没有问题的,担心的是数据大的时候。
    所以想多得到一些大家的意见。
    唯她说不用文本,不过还不知道用什么好?。
      

  11.   

    呵呵,xml阿,比较省心的,好像csdn