在对分区表进行了truncate操作后,重新对该表进行insert操作。但是当数据量达到较大的水平后insert的效率就开始变得很低。大概每24小时的入库条数不到1亿。为了提高效率目前已经drop掉了表中的索引,但是效率依然未见有提高。请各位大大帮看看是什么原因呀?

解决方案 »

  1.   

    是不是表空间满了,导致数据文件不停的自增长,减缓了处理速度?
    先把数据文件resize到一个比较大的size,有没有改善?
      

  2.   

    额,数据文件是表空间的构成部分,大小怕是不能随便改吧。而且那个需要DBA权限。我没有DBA权限呀
      

  3.   

    数据文件resize到更大是没有问题的,不过你没有DBA权限,就做不了了,
    你看看能不能查下数据文件占用情况SELECT total.tablespace_name, total_size/1024/1024, nvl(free_size, 0)/1024/1024,
    ROUND((total_size - nvl(free_size, 0)) / total_size, 4)*100 usage
    FROM
    (SELECT tablespace_name, SUM(bytes) total_size FROM DBA_DATA_FILES GROUP BY tablespace_name) total
    left outer join
    (SELECT tablespace_name, SUM(bytes) free_size FROM DBA_FREE_SPACE GROUP BY tablespace_name) free
    on total.tablespace_name = free.tablespace_name
    ORDER BY usage DESC;再查查数据文件的自增长粒度,
    select file_name, tablespace_name,autoextensible, increment_by from dba_data_files;