手头有个开发项目,每分钟数据量为3000000条,每条记录100字节,计算下来每天数据量21.6亿条,43.2G。
应用本身比较简单,就是采集实时数据,统计后显示给远端客户。
以前的开发没有碰到过如此量的数据记录,咨询各位大侠,采用MySQL是否可以支撑?或者大家认为什么数据库比较好?谢谢各位啦……
应用本身比较简单,就是采集实时数据,统计后显示给远端客户。
以前的开发没有碰到过如此量的数据记录,咨询各位大侠,采用MySQL是否可以支撑?或者大家认为什么数据库比较好?谢谢各位啦……
调试欢乐多
我所经历的数据量为每天10G(每条记录1K),采用MS SQL 2000,按年分库按月建表,弊端:年末数据统计速度很慢很慢。
建议:按月分库按天建表
PI采用了旋转门压缩专利技术和独到的二次过滤技术,使进入到PI数据库的数据经过了最有效的压缩,极大地节省了硬盘空间。据计算,每秒1万点数据存储一年,仅需要4G的空间,即一只普通硬盘也可存贮五到十年的数据。是效率最高,使用最简单,使用最广泛的实时数据库,因为其杰出的性能,PI已经多次提高了它的价格,而且PI在其文档中公开了她的各种算法,比如上面提到的旋转门压缩和二次过滤。