我是说我这个情况,kill或回滚之后提交下,再执行第2条语句行吗?

解决方案 »

  1.   

    如果我现在增加undo表空间,插入速度会加快吗
      

  2.   

    使用BULK COLLECT INTO 进行优化
    参考
    http://f.dataguru.cn/thread-178895-1-1.html
      

  3.   

    数据量太大,增加回滚段也解决不了啥问题
    目前只能把session 截掉了吧,然后检查数据是否正常回滚完成
    正常回滚的话,利用批量提交的方式重新写过程插入数据
    貌似没啥其他更好的方式了
      

  4.   

    我遇到这种情况都是直接kill掉。当然这个是基于你业务不是很复杂,牵涉的表不是很多的情况下可以。如果业务很复杂,牵涉表很多,那就要慎重了,因为怕最后导致你有些表已经commit了数据,有些表又没有insert成功,最后导致数据不一致
      

  5.   

    和我今天遇到的问题一样,我的200万条数据执行了20分钟,才全部抽取完毕,数据量太大,最好使用job完成,这样不耗内存,还可以干别的事。
      

  6.   

    call调用存储过程是不是占内存呢,我的1亿条数据执行了一个多小时