我有个程序,需要写数据,类似聊天室.
但以前的数据都得纪录,长久以后会有N多数据,现在采用xml文件方式存储,虽然多点无所谓,但不利于管理,所以准备换MYSQL之类的数据库.
想问如果数据(每条1-5KB)条数几十万或者几百万条后都存在一个表内,会不会导致数据库查询非常慢并且导致服务器CPU被吃完的现象?...  .不敢尝试~请教各位高人. 

解决方案 »

  1.   

    另外我听说 csdn 是采用xml做底层数据存储的,是怎么实现管理的?...多方用户并发异步读写问题呢?..队列虽然可以解决写入的问题,但管理方面怎么办?.
      

  2.   

    几十万 几百万的数据 只要并发读取/存入的数据不是太大的话 mysql是完全可以胜任的
    而且可以用limit优化 实现百万至千万级快速分页
      

  3.   

    http://topic.csdn.net/u/20100201/16/dc9ad7d7-840b-4ded-9d7a-d94db5bc235f.html
      

  4.   

    要看你的查询语句都是什么什么?如果都是些 select * from table1什么where 子句都没有的当然会很慢。一般来说,几百万条 在大多数应用的情况下没有问题。
      

  5.   

    感谢LS的几位,另外3楼我糊涂了,你那帖子里有说好的下面还有表示实验过不好的,到底怎么回事?...我大概到时候弄台 windows 服务器, 2.4 x 4  8G内存,跑个百千万数据应该对服务器压力不大吧.