我对这个问题有兴趣。可以把问题的细节告诉我么?我们共同研究一下。
my email:[email protected]

解决方案 »

  1.   

    可以使用一些算法,比如使用HASH,并且在HASH基础上增加一些东东,就可以加快检索的速度,
    我使用过了,在海量数据下效果显著!!!!
      

  2.   

    我没有分数了,可是问题我还是得提:
    文件分块我已经实现了,不同的是我没有留下插入的空间,但是即使我留下了,插入的数据很多的时候,留下空间只是增加了程序的复杂程度。同时,排序对某个文件块是简单的,可是要保证每个块也是排序的就比较复杂了。
    我近几天也想过外部排序的办法了,如果要外部排序的话,2035800条记录用long数据类型为索引也需要2*2035800*sizeof(long)的内存空间,大约8M~9M的内存,但似乎只有这个办法容易实现些了。