因为是内部使用的系统,担心被外面的人访问,以前发生过这样的事情,在baidu上能搜出页面来,如何避免呢,谢谢了
解决方案 »
- [100]神奇!!!JSF中<h:datatable>里面,SQL居然会发行三次的问题!!!!!!!!!!!!
- spring上传
- 页面中调用本地应用程序后自动登录的解决办法
- “警告: 编码 GBK 的不可映射字符”怎么处理?
- JSP包含自定义类的路径问题!!!
- 大家谁知道tomcalt5.0的server.xml文件里为什么没有context这个元素,从而导致我无法更改属性reloadble
- 客户端如何读取服务器端的excel文件---非常着急!!
- 100分求解请客位大哥帮忙分不够可以加谢谢
- 有关动态加载图片的问题
- 求助 栏目的权限管理设计与制作思路!~~
- [Hot]毕业告急,求救,请JSP高手指点,thank you![在线等~~~~~~~~~]
- 此代码有什么问题,<s:else>提示没有结束标签
既然内部 建议给出一个IP段限制。即使它被收录了,但不在规定的IP段上,就无法打开。
但是robots.txt文档存在未必就是安全的。如果搜索引擎不按照 规则走。
robots.txt文档的存在 照样会查出相关信息。
这位仁兄的考虑,是非常现实的就算是BAIDU提供了不被收录的方法,但是还是有几率的。想要全面的控制。。断网吧,在局域网做。
规则是没有限制的。目前很多公司都自己写搜索引擎,写爬虫去爬。而这些公司根本不按照你说的规则走。
只要是能爬的都抓下来。所以,你说的robots.txt只能是一部分的限制,最根本无法保证信息的外漏。只要是你BS,只要你有互连网,信息一定会外漏。