我觉得 file_get_contents 就可以了,不必压缩上传

解决方案 »

  1.   

    低內存,低網速
    壓縮是占cpu的,如果cpu高可以壓縮。如果cpu都低。。傳輸慢點算了。
      

  2.   

    我决得可以通过API,一端进行数据的JSON输出,另一端接收,再处理。
    分批次的进行接收,每次可以传100或其它数。
      

  3.   


    主要是考虑到两个因素如果上传文章,比如我每次上传10篇文章,这10篇文章,有可能每篇100个字,有可能每篇1万个字。数据大小可大可小。file_get_contents遇到这种情况,传输大点的数据,可能服务器就无法响应了。不好控制,如果处理,也可以,不过增加了程序的复杂性。
    压缩起来的话,就不容易出现数据包过大的问题,因为200KB的文本,我压缩起来才十几KB,即使内存不大,网速不高的情况下,还是能够稳定的上传。
    这就相当于我把1万个苹果从A城市运往B城市。我打包成每箱100个,100个箱子的数据运送,就好控制了。
      

  4.   

    mysql数据同步? crotab处理不行?
      

  5.   

    直接取出来json传输,现在的服务器都自带压缩功能,然后在目标服务器处理入库
      

  6.   

    感觉楼主的逻辑有点奇怪,这个本地打包是使用php从数据库导出数据写入文件,然后在把文件打包,然后上传(这个是手动的么),上传到目标站后再在目标站点解压(这个是手动的么)利用php解压出文件再load data到数据的操作么  。不知道我说的过程是不是楼主的意思。如果是的话,难道不可以在本地建立一张临时表,将需要的数据放到临时表里,在通过数据库的复制机制,直接复制到目标网站的数据库表么。。