我有一个表现在4000万数据,12个分区已时间分区的,三个普通索引,53个字段。在做入库的时候慢得很,基本上一秒钟才10条左右,用merge /*+append*/into when not 这种,请问我该从那方面分析这个问题,我测试了insert into 也很慢insert into 

解决方案 »

  1.   

    用merger确实是很慢的,因为它时一条条先比较后插入后更新的。你先自己做判断,直接的插入,用nologging的形式,不写日志
      

  2.   

    优化索引,为什么三个索引?
    表53个字段?优化表。
    insert 就行
      

  3.   

    我是用kettle 抽取的。 直接用的表表输出 和 insert /update 
    看来现在要自己写sql语句 加上/*+ append()*/ +nologging 了
      

  4.   

    索引删除了。 insert into 的速度还是客观的。 但是无法去掉重复 
      

  5.   

    批量插完之后再踢重,再正常加主键或者自己用Not exists判断
      

  6.   

    试试sqlldr这个工具,能批量导入数据