我有2个异构数据库A,B,想把B库中的某张表(数据比较多,估计有1亿条)的数据用xml远程传到本地,再把xml文件解析出来放入A库中,大家觉得在批量数据传输时采用xml是否合理,但涉及到异构数据交换xml又是个不错的选择,大家对此有什么看法?

解决方案 »

  1.   

    如果是我做:
    1、找规则,把数据做拆分,一次性处理亿条数据不是很好的选择
    2、把拆分的数据集合导成指定的格式
    3、sqlldr加载
      

  2.   

    这么大的数据量,转为xml再传输,再解释写入,那不折腾死了.异构数据库,我一般先导出为有格式的文本,然后ftp什么的,到本地再导入,好使!,常用数据库都有导出导入文本文件的命令.
      

  3.   

    可以考虑streams来做异构的同步,我没有这方面的经验.
    不过你可以考虑.因为我一个朋友有做过这样的同步.db2 oracle之间
      

  4.   


    正解啊,用oracle自带的数据泵吧!
      

  5.   

    如果是一两次传输,那sqlldr是最适合的了,如果是实时,那就要考虑其他方法了.
      

  6.   

    取到数据后,在本地还要用 etl工具对数据清洗、加工等,
    所以拿到的数据格式一定要有,不然我在本地很难用etl处理