web方式要下载上G大小的文件,遇到了难题,大家有没有类似经验,搜集一下资料,通过断点续传或者第三方下载工具,不过没实践过,不知道能否解决

解决方案 »

  1.   

    用web下载这么大的为什么不用迅雷7,电驴这些呢?
    不过没用过来学习、
      

  2.   

    搜索:HttpClient 文件下载 断点续传不复杂,对于支持断点续传的服务站点来说,只不过是HTTP-HEAD中加个 range 而已。
      

  3.   


    规模没任何区别,稍微有点点难度只不过在于异常控制,也就是突然断了,你要能控制好重新发起连接,计算好续传位置。
    如果要搞多线程下载呢,难度就会高不少,文件要用RandomAccess来访问,要控制各线程所负责下载的区间,如果算错了,下载完毕后就是个垃圾了。