最大表做分区,满足生产要求,写入和查询,不做跨分区的查询!
目前我们的案例是1.5亿,计划支持到10亿级别。哪位兄弟伙有相关案例

解决方案 »

  1.   

    -- 我们目前最大的表有近60亿,而且查询效率扛扛的快!12:50:48 BIEE@yktdadv > select * from
    (
    select table_name, NUM_ROWS, row_number() over(order by num_rows desc) cnt
    from user_tables
    order by NUM_ROWS desc)
    where cnt<=10;
    12:51:36   2  12:51:36   3  12:51:36   4  12:51:36   5  12:51:36   6  TABLE_NAME  NUM_ROWS  CNT
    ------------------------------ ---------- ----------
    DW_ADS_IMP_HOUR         5736437194    1
    DW_ADS_IMP_DAY        3422828108    2
    DW_ADS_ADI_HOUR         2384522218    3
    DW_ADS_IMP_CITY_CHANNEL_DAY 834333936    4
    DW_ADS_ADI_DAY 740930276    5
    DW_ADS_IMP_HOUR_NEW 463455294    6
    DW_ADS_ADI_HOUR_NEW 215315208    7
    DW_ADS_IMP_CITY_CHANNEL_HOUR 202657462    8
    DW_ADS_IMP_P_CHANNEL_DAY 142884000    9
    DW_ADS_MOBILE_ADI_DAY 127246867   1010 rows selected.
      

  2.   

    够大的...
    用了几台小机做RAC
      

  3.   

    1、现在很多行业,尤其是电信行业,几亿、几十亿的数据,还是很常见的;
    2、rac不一定能解决海量数据性能的问题;
    3、分区还是有很多学问的,不是分区了就和小表一样,它比小表更容易出问题,也更难优化;
    4、面对海量数据,性能好坏,关键看你怎么用,也就是具体的SQL;