解决方案 »

  1.   

     百万级的数据就不行了?CPU是G级的。。.十亿十亿打百万是一千个打一个我去。。这是怎么包抄的?
      

  2.   

    百万是M级。一个记录是K级?你是什么表 ?。。这个差很多。。
    百M到G级的库都有可能。。还是略大的。。
    1.调 入内存。。数百M调入内存还是满大的
    2.寻址。。百万级的寻址?。。处理时间肯定在1秒以上所以卡五秒以内存正常 
      

  3.   

    用GreenDao吧 ~~百度一下 你就知道~一个开源的组件~
      

  4.   

    优化SQL语句 ?这么大的数据量怎么优化呀不解求教
      

  5.   

    SQLLite本来就不是为并发设计的,对并发的支持只能“呵呵”了。