是这样的,我要处理的数据不是一次性导入的,而是分次导入到mysql里面,然后要处理的时候选择出来处理。
但是我发现从数据库里取一条数据然后处理这样速度太慢,
然而一次性全部读入内存又显得不太科学,容易爆吧,因为数据量容易很大。问下,有没有什么两全齐美的方法呀?JAVA中list容量最大是多少?
但是我发现从数据库里取一条数据然后处理这样速度太慢,
然而一次性全部读入内存又显得不太科学,容易爆吧,因为数据量容易很大。问下,有没有什么两全齐美的方法呀?JAVA中list容量最大是多少?
解决方案 »
- Swing中怎样使JScrollPane中滚动条始终在最下面
- 大家帮我看下这段代码哪错了,急死了。
- 哪位大侠帮我看看这到笔试题,Exception的,题目很有意思,可惜刚来,分不多
- J2SDK 和 TOMCAT 都配置好了。但是JSP无法调试运行。
- 关于在 JTable 上移动焦点的问题
- 有关 java 异常的 异常表现
- 哪里可以下载java sdk for linux???
- 做一个用户可自行输入的表格
- 怎样让你的问题尽快得到解决, 提高CSDN 的效率
- 一个关于JDK运行错误的问题
- java 中的package与import
- 1.for(int i = 100000; i > 0; i–-) {} 2.for(int i = 1; i < 100001; i++) {} 哪个更快
可以分批取出,分批处理
以上个人观点
不过尽量都是部分读入再处理。也就是每次读入几百兆的文件,然后再处理,这个是可以承受的。
都读入内容,有时候是不可能的。硬件是最终的制约条件。
你看看能不能把大数据,先划分为若干小的数据另外,你的MySQL在Linux下,应该支持内存数据库,BerkeleyDB,可以利用。