哦,我也不太懂。 想问下这样的数据量会不会很卡,mysql/data文件夹里文件是不是会太多了
解决方案 »
- 一次请求 sql语句确执行两次
- 表的存储引擎为myisam,如何去掉以前的自动commit功能,让程序员手动写程序commit呢?
- delete update 按住键查询时加limit是否有必要?
- MYSQL的查询问题!(高手请进!)
- 如何写这个SQL文?
- About error:Connection to MySQL goes away!
- 我的mysql在windows2000下为什么用不来?
- 求助Oracle的分析函数over()、keep()转成Mysql
- 查询问题
- 求助!MySQL在LINUX下存储过程的SQL文不能执行!!
- mysql问题 如何将截取的字符串替换原有的内容
- 随机抽取并更新
我没有经历这么大数据量的项目. 以下仅供参考:
按天分表. 索引不要太多. 因为5000W的索引维护也是很困难的.
数据可以使用batch 插入. 攒500-1000连一次库.
如果有读取的需求. 应该读写分离. 具体就是 一个群写入 一个读取.
对于频繁读取的数据. 使用缓存 (memcache redis mongdb..)
然后. 我感觉也可以按时间段分表. 5000W 一天中 按 0-6 6-12 12-18 18-24.分表. 或者自己维护一个数量. 1000W 切表. 维护一个时间 对应表的索引小表. 也是可以的.