各位大虾如题,网络蜘蛛既然能够抓取网站的信息,那么有没有一种方法,通过编程来拦截它的抓取呢?
我知道有一种是通过robots和META标签的设置来完成,但是我觉得太被动了,这种方法只是被动告诉别人不要“抓取”网站
能不能主动的拦截呢??
我知道有一种是通过robots和META标签的设置来完成,但是我觉得太被动了,这种方法只是被动告诉别人不要“抓取”网站
能不能主动的拦截呢??
网上有蜘蛛的名称列表,可以在之前就禁止其访问
不过这个列表也要去维护,效果也不一定有robots好,所以如果没有特殊需要,还是直接设置robots.txt最好