echo file_get_contents('http://www.abc.com') 这个能抓到内容。 echo file_get_contents('http://www.kkk.com') 这个抓不到内容,多数时候就返回到我自己站点。
 也就是 file_get_contents 这个函数只能抓到一个网站的内容,其它网站都抓不到。不是返回false 就返回自己的网站。
  

解决方案 »

  1.   

    要是被别人限制的话,没有这么巧的,同时被别人限制,还有只要是远程函数都不能用,如 fopen,file..
      

  2.   

    用cULR模拟浏览器浏览,会比file_get_contents的适用性更好一点。
      

  3.   

    现在的问题是,不单是这个函数 file_get_contents,比如 fopen ,file ,fwrite,等等这些函数也用不了,会不会和服务器有关,郁闷的是,今天以前一直都是可以的。
      

  4.   

    首先你抓的是哪些服务器
    其次你用的是哪个空间,是独立机器,还是什么。
    是Linux还是什么。fg本来问题
      

  5.   

    被改成安全模式了?去php.ini中看看
      

  6.   


    楼上我的 php.ini safe_mode =Off 是这个,没有改过。
      

  7.   

     很是纠结,
    比如我抓 echo file_get_contents('http://www.163.com'),
    或echo file_get_contents('http://www.sohu.com'), 这都可以抓到,但是抓echo file_get_contents('http://www.csdn.net')就不行,看了一下抓动态页面能抓到,动态的页面就抓不到。
      

  8.   

    file_get_contents自身问题。
    可以用个while循环抓取
    while(!$content or $i==4){
    $content = @file_get_contents("http://" . $url) ;
    $i++;

    if($i == 4){
    echo "获取远程文件失败";
    }
      

  9.   

    <?php
    $i = 0 ;
    while(!$con & $i < 10){
    $con = file_get_contents('http://www.awsway.cn');
    $i++ ;
    echo $con ;
    }
    if($i == 10){
    echo "获取失败";
    }
    ?>
      

  10.   

    用curl吧
    file_get_contents这个函数对网络抓取不稳定,而且慢,而且不能自己附加头信息,很容易被挡掉
      

  11.   

    谢谢楼上的回答。
     file_get_contents 这个是可以替换;file,fopen,这些就函数没有替换的。
      

  12.   

    file_get_contents 抓取是有限制的啊
      

  13.   

    谢谢楼上各位的跟帖解答。  解决办法,换了个DNS后好了。