本帖最后由 giantman 于 2010-09-13 23:40:12 编辑

解决方案 »

  1.   

    HashMap 的实例有两个参数影响其性能:初始容量 和加载因子。容量 是哈希表中桶的数量,初始容量只是哈希表在创建时的容量。加载因子 是哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,则要对该哈希表进行 rehash 操作(即重建内部数据结构),从而哈希表将具有大约两倍的桶数。   通常,默认加载因子 (.75) 在时间和空间成本上寻求一种折衷。加载因子过高虽然减少了空间开销,但同时也增加了查询成本(在大多数 HashMap 类的操作中,包括 get 和 put 操作,都反映了这一点)。在设置初始容量时应该考虑到映射中所需的条目数及其加载因子,以便最大限度地减少 rehash 操作次数。如果初始容量大于最大条目数除以加载因子,则不会发生 rehash 操作。   如果很多映射关系要存储在 HashMap 实例中,则相对于按需执行自动的 rehash 操作以增大表的容量来说,使用足够大的初始容量创建它将使得映射关系能更有效地存储在网上搜索出来的,希望对你有用,链表也是类似!!   维护一个大链表比一个链表的空间大得更多!
      

  2.   

    HashMap 被你这样使用,考虑用其它方法吧?
      

  3.   

    为什么要一次全部读入?
    250M的数据,方DB吧
    另外java好像有一个文件映射为内存的类,搞忘了叫什么名字 ,可以google一下
      

  4.   

    hash是空间换时间的,所以他需要的内存大小比实际存的数据要大的多
      

  5.   

    另外一个贴有个大哥已经强调了 当HASHMAP的容器长度不够的时候 就会拓展其长度 由于内部是数组实现的(另外一个贴那个大哥也给出了不同的数据类型占用的内存大小) 再加上HASHMAP是用空间换时间 所以可能是这个原因