在Internet上,多台服务器和一台服务器之间传输数据.使用的方法是如下:使用windows服务定时搜索本地数据库,如果本地数据库有新数据就将这些数据写入xml 加密,之后通知远端服务器的webservice,获得xml,并将数据存入远端的数据库中。这样的过程在多台服务器和一台服务器端都有~
为了避免多台服务器向一台服务器同时发送造成的冲突,控制多台服务器发送数据的时间,时间隔开。而对于类似于图片的那种大对象的字段,xml不好用,所以使用数据集DataSet传输到远端服务器的webservice中直接进行数据的导入,因为太大的数据webservice承受不了,所以选择每一条记录作为一个数据集,也就是一个很小的数据集传输过去!对于这方面,本人经验尚浅,希望大侠们赏脸,点评一下!什么地方不足,或者说这样的方法会出现什么问题,最主要的是有什么其他的方法?解决这样问题的主流方法又是什么!谢谢

解决方案 »

  1.   

    如果服务器与服务器是同构的话可以在数据库中直接搞定,不用外部控制效率会高些,比如sql server中不就有工作计划吗
      

  2.   

    可是,这是在Internet上作业,不是在局域网中~!sqlserver可以做到么?
      

  3.   

    dataset本身在内存里就是xml格式,文件太大,而且有太多的冗余数据,建议你在传输前进行压缩,等对方接受到数据后再解压即可,具体的解决方案,可以看我给你的链接.
    http://upto.cnblogs.com/archive/2006/04/10/compresswebservice.html
      

  4.   

    这个也不错,台湾人写的!
    http://www.microsoft.com/taiwan/msdn/columns/adonet/AdoNet_20041231.htm