前天发了张贴子求救“数据量太大,导致服务器不可用”
因为我处理的一张表了有27W条记录
有朋友建议我用分页存储过成,于是我在CSDN上搜到了个分页存储过程
但是 我发觉分页存储过程也只是取出前面的数据,不能取全

解决方案 »

  1.   

    1.增加服务器的配置,这是最好最快的方法
    2.优化程序,减少每次取数据的数量不过我有次,一下取了40万条数据,填充在DATATABL(WINFORM)中,是没有问题的,不过内存一下涨了100多兆,呵呵,,
      

  2.   

    270k 够不够荡掉server我不知道,不过其实有很多办法可以缓解这种类型的压力,研究研究csdn这个论坛的查找方式就会得到很多启发。应用分治法解决软硬件条件限制的问题通常是很有效的,相反大量数据通通装到一个dataset里可想而知是多么不经济。
      

  3.   

    谁会一次取全部数据出来呀,大数据下都是取部分的,取得太多极严重影响性能,你想想你自己到CSDN上看帖子也不可能是一次全看完吧,我算你15秒能取出27W条数据,你绑到控件上呢?要多少分钟?客户端要耗多少内存,你可以想想值得不,一次别说取27W条,我试过把连接时间和查询时间设到23个小时,以平均8M/S硬盘读取速度来算好了,23个小时能读多少条数据.技术上不是做不到,只是这样做,没有什么好处,如果做高速服务器,纯内存数据库的话,对于服务器端来说,的确是够 快的了,但到了客户端,在大量数据下时还是不要一次全取数据,因为你还得考虑网络和客户的性能问题,
    分页是一次只取部分,上过论坛的人都应该能理解是什么概念.
    中间还会涉及很多性能和安全方面的问题,你的实验都证明了结果是崩溃了,如果你非要坚持你的看法,你最好想好说词,说服客户买4G内存,组千兆网,客户端内存至少也配个512M,你还得想好将来对方公司出现员工一次性把公司所有资料盗走后的问题.
    多点和人打交道,技术有时不如倾听客户重要.