情况:1、每天要有上百万的的数据写入数据库(时时)2、要对数据进行汇总,分析,处理,查询。这样速度很慢    请问高手  怎么解决此类问题

解决方案 »

  1.   

    1.sql优化
    2.存储过程
    3.服务器配置在高点
      

  2.   

    lz 做什么应用,这多数据,要真有这样的需求,恐怕也不是单纯软件程序能解决问题的了,硬件、数据库都得跟上,还得使用负载均衡技术,恐怕lz得请一大帮专家都帮你设计解决方案、数据库方案了.
      

  3.   

    我们公司的系统也不小,现在有9个G的数据库大小,每天增加近百兆的数据.曾经对两个大数据量的表进行group by ,再连接,导致企业管理器和查询分析器断网.至今原因不明,只好用临时表.
      

  4.   

    yan63()   说的是分布式数据库处理吧   我们公司目前要用不到我说一下大体情况  网站做推广  网站的日流量上百万  有一天数据增加了一个多G统计系统 马上出现zbdzjx(zbdzjx)  所说的情况  大量数据的写入 让其他查询之类的操作 不能进行
      

  5.   

    这么牛的网站啊,一天一个多g,是蜘蛛吗?
    看看能不能在临时表中储存更新的数据,然后在某个空闲时段批量写入,对大数据量非索引字段使用group by需要大的开销,若是大数据量更新是需要频繁更新索引,那还是将索引删除后更新,然后重建索引来的核算,
    对于:
    2.要对数据进行汇总,分析,处理,查询。对于大数据量的是不是考虑预处理,实时还是有难度,如果采用上面的临时表缓存的策略的话。