应该是可以的,你可以用url流来获得网页的源文件,然后查找里面是否有jpg或gif的字样,然后来查找"/"或"<img src=",然后进行字符串截取来得到文件的具体名称.不过这样做的话要有多重判断,也很麻烦,所以原则上不推荐这么做.

解决方案 »

  1.   

    可以的,使用刮取技术。具体可参照jakarta taglibs中的Scrape标志库,举例如下:
    <scrp:page url="a.jsp">
       <scrp:scrape id="a" begin="<img" end="</img>" anchors="true"/>
    </scrp:page>
    其中begin 和end包括了你要取得东西,然后再取得图片的路径(或者直接刮取图片的路径),再下面就是读取图片的操作了。你可以试一试。我没有做过
      

  2.   

    我作过一个提取网页内容的程序,基本思路是用socket连接到服务,申请网页内容,把获得的内容存为String,然后关键字(比如,以.jpg/.gif结尾和以<img 开头的字符串),利用提取出来的地址,取得图片即可.
      

  3.   

    楼上说得都可以啊。但我更倾向于用HttpUnit来实现。 将“流氓无赖”测试到底
    ——始于2003年7月
    树欲止而风不停,行云流水匆匆去;
    树梢蚂蚱凭空望,江边浪花碎巨石; 支持“流金岁月”!!!
    发送框,少个“右键菜单,选择粘贴”;
    ——2003年12月24日am^@^
      

  4.   

    這麼熱鬧我也貢獻一招先把windows臨時文件刪除,上網結束後所有瀏覽過的圖片都在裡面了,不多不少。