各位大虾、斑竹、高手!请教问题背景:在表空间存储的表,其中有clob大对象(实际中就是存储照片的表,照片一般包括20-35k(不断增加)的和35-100k(不会增加)的),表中数据一般在60G,最多的170G,针对此表常用操作包括insert、update。
现象:1、使用过程中一段时期后出现磁盘碎片行连接过多。
2、在第一次imp导入数据后也出现磁盘碎片行连接过多。
前提:本人属菜鸟,经验也不多。问题:1、如何设置存储参数,尽量减少磁盘碎片现象,但又要尽量节省存储空间?
2、问什么第一次导入就会出现磁盘碎片?
3、如果已出现怎样解决(exp/imp;oracle manager server;move),因为是实时系统,怎样在最短时间能较安全的解决?谢谢!

解决方案 »

  1. 我们知道,oracle作为一种大型数据库,广泛应用于金融、邮电、电力、民航等数据吞吐量巨大,计算机网络广泛普及的重要部门。对于系统管理员来讲,如何保证网络稳定运行,如何提高数据库性能,使其更加安全高效,就显得尤为重要。作为影响数据库性能的一大因素--数据库碎片,应当引起dba的足够重视,及时发现并整理碎片乃是dba一项基本维护内容。 
        ---- 1、碎片是如何产生的      ---- 当生成一个数据库时,它会分成称为表空间(tablespace)的多个逻辑段(segment),如系统(system)表空间,临时(temporary)表空间等。一个表空间可以包含多个数据范围(extent)和一个或多个自由范围块,即自由空间(free space)。     ---- 表空间、段、范围、自由空间的逻辑关系如下:     ---- 当表空间中生成一个段时,将从表空间有效自由空间中为这个段的初始范围分配空间。在这些初始范围充满数据时,段会请求增加另一个范围。这样的扩展过程会一直继续下去,直到达到最大的范围值,或者在表空间中已经没有自由空间用于下一个范围。最理想的状态就是一个段的数据可被存在单一的一个范围中。这样,所有的数据存储时靠近段内其它数据,并且寻找数据可少用一些指针。但是一个段包含多个范围的情况是大量存在的,没有任何措施可以保证这些范围是相邻存储的,如图〈1〉。当要满足一个空间要求时,数据库不再合并相邻的自由范围(除非别无选择),而是寻找表空间中最大的自由范围来使用。这样将逐渐形成越来越多的离散的、分隔的、较小的自由空间,即碎片。    ---- 2、碎片对系统的影响     ---- 随着时间推移,基于数据库的应用系统的广泛使用,产生的碎片会越来越多,将对数据库有以下两点主要影响:     ---- (1)导致系统性能减弱     ---- 如上所述,当要满足一个空间要求时,数据库将首先查找当前最大的自由范围,而"最大"自由范围逐渐变小,要找到一个足够大的自由范围已变得越来越困难,从而导致表空间中的速度障碍,使数据库的空间分配愈发远离理想状态;     ---- (2)浪费大量的表空间     ---- 尽管有一部分自由范围(如表空间的pctincrease为非0)将会被smon(系统监控)后台进程周期性地合并,但始终有一部分自由范围无法得以自动合并,浪费了大量的表空间。     ---- 3、自由范围的碎片计算     ---- 由于自由空间碎片是由几部分组成,如范围数量、最大范围尺寸等,我们可用fsfi--free space fragmentation index(自由空间碎片索引)值来直观体现: 
        fsfi=100*sqrt(max(extent)/sum(extents))*1/sqrt(sqrt(count(extents)))    ---- 可以看出,fsfi的最大可能值为100(一个理想的单文件表空间)。随着范围的增加,fsfi值缓慢下降,而随着最大范围尺寸的减少,fsfi值会迅速下降。
     
        ---- 下面的脚本可以用来计算fsfi值: 
        rem    fsfi value compute
        rem    fsfi.sql
        column fsfi format 999,99
        select tablespace_name,sqrt(max(blocks)/sum(blocks))*
               (100/sqrt(sqrt(count(blocks)))) fsfi
        from dba_free_space
        group by tablespace_name order by 1;
        spool fsfi.rep;
        /
        spool off;    ---- 比如,在某数据库运行脚本fsfi.sql,得到以下fsfi值: 
        tablespace_name                   fsfi
        ------------------------------ -------
        rbs                              74.06
        system                          100.00
        temp                             22.82
        tools                            75.79
        users                           100.00
        user_tools                      100.00
        ydcx_data                        47.34
        ydcx_idx                         57.19
        ydjf_data                        33.80
        ydjf_idx                         75.55    ---- 统计出了数据库的fsfi值,就可以把它作为一个可比参数。在一个有着足够有效自由空间,且fsfi值超过30的表空间中,很少会遇见有效自由空间的问题。当一个空间将要接近可比参数时,就需要做碎片整理了。 
        ---- 4、自由范围的碎片整理     ---- (1)表空间的pctincrease值为非0     ---- 可以将表空间的缺省存储参数pctincrease改为非0。一般将其设为1,如: 
           alter tablespace temp
           default storage(pctincrease 1);    ---- 这样smon便会将自由范围自动合并。也可以手工合并自由范围: 
           alter tablespace temp coalesce;    ---- 5、段的碎片整理 
        ---- 我们知道,段由范围组成。在有些情况下,有必要对段的碎片进行整理。要查看段的有关信息,可查看数据字典dba_segments,范围的信息可查看数据字典dba_extents。如果段的碎片过多,将其数据压缩到一个范围的最简单方法便是用正确的存储参数将这个段重建,然后将旧表中的数据插入到新表,同时删除旧表。这个过程可以用 import/export(输入/输出)工具来完成。     ---- export()命令有一个(压缩)标志,这个标志在读表时会引发export确定该表所分配的物理空间量,它会向输出转储文件写入一个新的初始化存储参数--等于全部所分配空间。若这个表关闭, 则使用import()工具重新生成。这样,它的数据会放入一个新的、较大的初始段中。例如:
        exp user/password file=exp.dmp compress=y grants=y indexes=y
            tables=(table1,table2);    ---- 若输出成功,则从库中删除已输出的表,然后从输出转储文件中输入表:
        imp user/password file=exp.dmp commit=y buffer=64000 full=y    ---- 这种方法可用于整个数据库。
      

  2. http://edu.yesky.com/edupxpt/280/2147280.shtml
      

  3. 出现性能问题是由于你肯定将lob数据和其他数据存储在同一表空间中;还有lob字段的更新操作他的前镜像数据不是用undo  tablespace来完成的,而是从其本身表空间中划分一部分空间来进行的。所以建议:
    问题:1、如何设置存储参数,尽量减少磁盘碎片现象,但又要尽量节省存储空间?
    解决方案:为所有的lob字段单独划分表空间
    2、问什么第一次导入就会出现磁盘碎片?
    原因分析:很正常因为lob在数据存储时是根据LOB的chunk参数控制块空间的,不是根据表空间继承表的存储参数
    3、如果已出现怎样解决(exp/imp;oracle manager server;move),因为是实时系统,怎样在最短时间能较安全的解决?
    解决方案: 首先为clob数据准备表空间 其次通过alter table move lob...的方式移植数据,可以在线作 但选择不影响业务的时间短去做
    参考:http://shadowfalao.itpub.net/post/2483/313626
      

  4. 各位大虾、斑竹、高手!请教问题背景:在表空间存储的表,其中有clob大对象(实际中就是存储照片的表,照片一般包括20-35k(不断增加)的和35-100k(不会增加)的),表中数据一般在60G,最多的170G,针对此表常用操作包括insert、update。
    现象:1、使用过程中一段时期后出现磁盘碎片行连接过多。
    2、在第一次imp导入数据后也出现磁盘碎片行连接过多。
    前提:本人属菜鸟,经验也不多。问题:1、如何设置存储参数,尽量减少磁盘碎片现象,但又要尽量节省存储空间?
    2、问什么第一次导入就会出现磁盘碎片?
    3、如果已出现怎样解决(exp/imp;oracle manager server;move),因为是实时系统,怎样在最短时间能较安全的解决?
    ---------------------------------------------------------------------------------
    看看你的表空间是自动管理还是数据字典管理,ORACLE建议自动管理.
      

类似问题 »