大家好,请问一个MYSQL大数据量处理问题:
每天一张表数据最少有3000W数据,mysql处理过1000W级数据就有问题,不知如何是好,请大家帮帮我,给个主意吧,谢谢!

解决方案 »

  1.   

     每天一张表的话,MYSQL也无法支持到3000W了,对查询等的操作起来很慢,请求各位大侠帮个忙!
    这个使用了主从数据库同步了,在这里在问下,MYSQL主从数据库同步是多少时间同步一次的呢!
      

  2.   

    见过MYSQL的MERGE表和PARTITION吗?看看手册上详细介绍。
      

  3.   

    同步时间可以通过参数master-connect-retry=60设置的,但不知每天那么多数据应怎么处理会更好呢,各位大侠指点!
    谢谢
      

  4.   

    另,楼主的所谓3000W数据,这个描述不准确。插入,查询的速度还取决于单条记录长度,有什么索引等。这方面是否经过仔细考虑?
    如果是记录定长切很短的MYISAM表,3000W,主键或短的唯一键索引查询也不慢:P 呵呵,不要见到千万级就老套的以为MYSQL不行了,要相信技术是在发展的。曾经的那些MYSQL无法支持大数据量的言论早就过时了,一些简单应用都是没有问题的。