利用xslt可以解析出来数据,但是文件一大就会有问题,IE7,8和FF3.5都不行。比如70M的数据。
网上看到有一个叫做SAX的,但是有支持javascript的吗?刚才还没有看到。
有其他的方法可以做到吗?
多谢。

解决方案 »

  1.   

    有哪位达人可以帮忙出出主意,现在就知道有xslt,还有其他的技术可以解决这个问题吗?少占系统资源,浏览加载时,最好不要有那种 停止响应 的问题。
      

  2.   

    各位,现在没有办法,这些数据存在在那里,需要解析掉。呵呵
    我本来看到有sax(http://en.wikipedia.org/wiki/Simple_API_for_XML),
    序列化处理,字符流处理,每次就提取一部分的数据,不要全部加载,需要的时候再提取。
    哪位有用过的经验最好,是否可以指教一下。
      

  3.   

    50M还是吧xml的信息转到数据库里,用后台访问吧。50M就把机器给卡死了。
      

  4.   

    问一个问题,google的gmail是如何做到传输大量的数据的呢。
      

  5.   

    趁早放弃你这种想法....目前的技术领域里  用javascript来解析50M的xml  ?即时你解析成功..也会等的不耐烦....
      

  6.   

    不过你可以考虑.分解一下xml  根据结构分析成若干个xml
      

  7.   

    用sax
    http://jslib.mozdev.org/libraries/utils/sax.js.html
      

  8.   

    SAX有一个问题就是我load xml的时候就已经消耗了内存了。
    我的理解,对于Java或者C++而言,他们可以有IO操作,但是JS似乎不可以。