$ch = curl_init("http://www.sina.com.cn"); 
$str=curl_exec($ch); 
这两条语句可以输出页面
但是我也获取http://www.sina.com.cn的背后源文件怎么获取啊 
高手赐教
在此谢过

解决方案 »

  1.   

    此回复为自动发出,仅用于显示而已,并无任何其他特殊作用
    楼主【libenchang】截止到2008-07-04 18:02:59的历史汇总数据(不包括此帖):
    发帖的总数量:41                       发帖的总分数:652                      
    结贴的总数量:1                        结贴的总分数:0                        
    无满意结贴数:1                        无满意结贴分:20                       
    未结的帖子数:40                       未结的总分数:652                      
    结贴的百分比:2.44  %               结分的百分比:0.00  %                  
    无满意结贴率:100.00%               无满意结分率:---------------------
      

  2.   


    $ch = curl_init("http://www.sina.com.cn");
    curl_setopt($ch,CURLOPT_RETURNTRANSFER,1);
    $str=curl_exec($ch); 
    echo $str;
      

  3.   

    分析网址->获取HTML内容->筛选获取到的内容->保存结果内容呵呵,我理解是这样的哈
      

  4.   

    用file_get_contents函数,可以取得远程页面的内容。自己分析一下别人的网页吧,可以做出一个采集程序来。