最好设置提交行数
加个参数
imp system/manager@mydb file=xxx.dmp log=xxx.log commit=y buffer=xxxxxxxxx fromuser=xx touser=xxcommit =y;
buffer = buffer_size;其中buffer_size = 几行一提交 * maximum_row_size,观测一下。

解决方案 »

  1.   

    不是很慢,简直象死机了一样没有反映,有时候一天、两天都不行呀!所以关于blob字段数据的exp和imp,不知道有什么好的方法!!!请各位高手指教!!!
      

  2.   

    只能加大buffer,给他大的回滚段
      

  3.   

    我觉得这位老哥的回滚段有够大了,否则会报错的。我不知道,你怎么导入的,如果你的方法是:sqlplusw>drop user xxx cascade;c:>imp system/manager@xxdb file= log= fromuser= touser=估计会慢。
    建议:sqlplusw>truncate table xxxxx1_table;
    sqlplusw>truncate table xxxxx2_table;
    ......
    sqlplusw>truncate table xxxxxn_table;
    imp system/manager@xxdb file = log= tables=(xxxx.xxxxx1_table,xxxxx2_table,....table xxxxxn_table;)
    试验一下
      

  4.   

    我们也碰到过一次,并且情况不稳定,有时候半小时不到就进去了,大多时候4-5小时也进不去。由于我们加了feedback=1000,打点的速度不稳定,有时候挺在那儿半天不动,有时候会突然加速。我们的机器是IBM的小型机,内存6G,6CPU。
       我们想了很久还是找不到原因,一般情况下只有当数据文件在扩展的时候会变得很慢,但是我们BLOB字段放在一个单独的表空间上,而且一次性分配了10G。还有一种可能是Redo log的量太大,切换Log文件的时候出现停顿。但是我们有一次早上导的,不到半小时就结束了!
      

  5.   

    I guess buffer parameter is very important , try to enlarge it at least 100 times of default value .