1。找到表所在的物理文件,直接移动文件。(最快的方法)
2。在两个数据库之间建立数据库链接,直接用copy命令或者SQL语句。
3。EXP & IMP
4。考虑 SQLLDR

解决方案 »

  1.   

    TO:: supershb(phenix)兄您看了我贴到上面去的东西了么,请您解决我遇见的问题,这样吧,对于您提出的4点建议,我一一进行回复;
    对于建议1,绝对不可以,理由:风险大,使源数据库和目标数据库面临很大危险,且两个数据库均不可停止,绝对不可以。对于建议2,速度慢,40G的数据不可能在4个小时内结束导出和导入对于建议3,我用的就是EXP和IMP方式,关键是如何使之更快的问题。对于建议4,没有在这个环境下用过,无成功经验不好把握进度。
      

  2.   

    这么大的数据量,跟我这儿(需求)有得一拚。
    你那儿的要求是40G全部备份过去吗?40G指增量数据吗?
    你提到的 EXP & IMP 不是个好办法,无论如何提高速度还是太慢了。
    我目前在测试数据库的性能呢,在测试我提到的方法2或者4。
    关于方法1也是可行的,但是它的技术要求很高,这是我们这儿的备选方案哦。
    我建议你使用方法4看看。SQLLDR还是非常快的,关键是导出的时间。
    过几天我测出他们的性能,我再告诉你(要给些报酬哦_给分)
    QQ:8659357
      

  3.   

    你的问题究竟是在那个环节中耗费了太多的时间,按照我的经验,40G的数据仅仅导出并不需要太多时间;FTP的速度取决于网络速度,在局域网中也不是大问题;但是倒入的时候就很难说了,如果索引、约束很多,那就会很慢。
    你把问题描述得详细一点,大家来讨论吧
      

  4.   

    TO:: supershb(phenix)兄40G是我要在第一步备的数据,是库里面的一部分数据,不是增量数据,目标数据库里面的表是空的。我也知道EXP&IMP对于大数据量来说不是最好的办法,它针对的中小型数据库的备份,应该说SQLLOADER才是真正适合大数据量的导出和导入,但我手头缺少相关资料,如果哪位有请发给我,我的邮件地址是:[email protected]哈哈,分数肯定给,有机会请喝酒!
      

  5.   

    TO:: KingSunSha(弱水三千) 兄可以排除网络问题,两台机器在局域网里面。目标数据库里的表仅仅是建立了,里面无数据,在表上无任何约束和索引,因为在源数据库里面有同样的约束和索引,所以可以肯定的说表中的数据不会使建立索引和约束失败。我也觉得SQLLOADER挺好的,以前在一个数据库里面用过,但没有在这样涉及到两个数据库之间用过,还有就是写脚本的问题。
      

  6.   

    transportable tablespace is the fastest way to moving  large valumes of data between oracle databases