我觉得 file_get_contents 就可以了,不必压缩上传
解决方案 »
- php分页显示,请问这如何解决page未定义?
- Apache的环境变量,在哪里设置?急,在线等
- Mysql select 语句请教!
- Windows下PHP5.20+Apache2.2.3配置问题
- 怎样单独安装mbstring模块?
- 谁能帮我翻译下面的一段文章就送他100分!!!
- 我要怎样才能在本窗口内打开一个新的窗口???????
- datagrid 分页 再次封装的控件 要求在xml里面能进行调的 请大牛解决
- 学PHP MYSQL是不是必学LINUX?
- 求助:checkbox作为搜索条件,无法将值传递到分页参数中?
- 这段代码中echo怎么不执行呢,高手给支个招
- php中引用里引用$ 怎么写呢
壓縮是占cpu的,如果cpu高可以壓縮。如果cpu都低。。傳輸慢點算了。
分批次的进行接收,每次可以传100或其它数。
主要是考虑到两个因素如果上传文章,比如我每次上传10篇文章,这10篇文章,有可能每篇100个字,有可能每篇1万个字。数据大小可大可小。file_get_contents遇到这种情况,传输大点的数据,可能服务器就无法响应了。不好控制,如果处理,也可以,不过增加了程序的复杂性。
压缩起来的话,就不容易出现数据包过大的问题,因为200KB的文本,我压缩起来才十几KB,即使内存不大,网速不高的情况下,还是能够稳定的上传。
这就相当于我把1万个苹果从A城市运往B城市。我打包成每箱100个,100个箱子的数据运送,就好控制了。