公司正在做的一个项目
将来数据量可能非常大
客户端每请求一次,就会有一条记录,日数据估计几千万,甚至上亿,字段大约10来个,里面的数据会按各种条件进行汇总自己想到下面3个方法1.每天自动创建一个表存储当天的数据,时时汇总,半夜就把数据移到另一个服务器的历史数据库
2.按小时创建24张表,自动汇总前一个小时的数据,然后移动到历史数据库,然后清除数据。
3.使用SQL2008的分区功能,貌似要多个硬盘才能体现性能24张表分散了数据,应该性能最好,单表2-3000W的数据,速度应该还行
求方案,谢谢!

解决方案 »

  1.   

    日数据估计几千万,甚至上亿---------------------------------这么大的数据量,估计哪个数据库都不好使.建议使用oracle.祝楼主好运.
      

  2.   

    不查询只添加的时候只有表索引多了才会影响效率,24小时的做法没必要,增加了程序复杂度,定点转移数据就行,然后建议使用Oracle,如此多的并发对SQLServer是一种灾难。按你1亿/天的估算,数据量将达到1157条/秒,就算是磁盘阵列,一台服务器估计也顶不住,建议多搞几个服务器,TCP连接数也是有限制的,最好应用服务器和数据库服务器分开。
      

  3.   

    oracle 也只是用过,但是不熟,也不会怎么优化,就怕到时候连SQL 2008的性能都不如SQL 2008能多服务器么,应该怎么建呢
      

  4.   

    建议oracle,最好大数据量处理用hadloop.
      

  5.   

    每天一个表,今后要用到的统计,可以用程序在半夜的时候都统计出来,保存成XML,用户查询的时候尽量不去读数据库了,历史数据只是一个备用,单表一亿的数据,统计不怎么样性能怎么样,字段尽量都用数字类型了
      

  6.   

    为什么数据量一大,就建议使用ORACLE呢,好像oracle成了万能的选择了。