我目前在进行数据库之间大数据传输时,总会出现不能长时间正常运行的问题,原因是每几分钟分数据库都会向中心数据库COPY,insert和Update数据,数量以COPY最多,大概会有几十万行数据,insert比较少,可能几分钟来一次,update可能是每几分钟更新几十上百次,这样就会造成缓冲区压力增大,有时候会导致溢出。我测试过使用CopyManager远程直接Copy到中心库每10000行大概要用1秒。
    我的程序是有一个中心数据库,多个分数据库,每个分数据库里会定时存放大量数据,由分数据库定时向中心库传递数据。我原来想到的是定时将分数据库的数据输出到文件,将文件上传到中心数据库,然后中心数据库定时去读取。这个经实践证明能成功,但由于很多原因,现在改成使用CopyManager直接上传,于是导致了大量数据堆积缓冲区,等待上传。
    请问各位有什么比较好的想法,也希望能评价我目前使用过的两种方法。