如图所示,这是返回到客户端的代码,问题是:
以这样的形式输出HTML,会影响网站被百度谷歌收录吗?请大家指教。

解决方案 »

  1.   

    把要 BAIDU 、 GOOGLE 找到的内容放到最外面。别把重要的内容放到太多标签里面,
    如果图片上有字,最好把带图片的字做为背景图片(把关键的字设为超链接,这个用DIV CSS
     如要学习,到 百度 视频上搜 DIV CSS 中科院,会有这方面的讲座,很好的)
    祝你早日解惑
      

  2.   

    可以说有很大的影响;
    网络蜘蛛一般有两种策略:广度优先和深度优先;
    目录文件的权限设置也会影响蜘蛛爬虫的进入;
    清晰的Html结构更容易被收录;
      

  3.   

    蜘蛛还特意分析你的html是不是格式化的特别人性化?这是不是很“奇特”的想法?谁说这不是准确干净的html结构?只不过他不是给你我读的,但是它非常适合机器读。没有空格会的紧凑代码使得词法分析速度更快,机器是很适应它的。
      

  4.   

    不会影响。只是,谁能告诉我,怎么才能以无换行,无缩进的方式返回HTML?比如在MVC中。
      

  5.   

    没影响,你想想蜘蛛是如何解析html的。你那些无用的空格只会影响蜘蛛的解析速度
      

  6.   

    replaceAll(">\S*<", "><");这样可能可以,或者你试试再调调
      

  7.   

    seo一下,有很多方法的,跟换行、缩进的关系不是很大。
      

  8.   


    哈哈,蜘蛛如果真有这种想法,那真不是一般的“奇特”啊,哈哈。你的代码越紧凑,越简洁越好,不仅加快解析的速度,边下载速度都加快了。通过观察,竹子发现你的代码还有优化的空间,比如,完全可以摈弃<b>这种落后的标签,安全用CSS控件粗体,如果要SEO一部分内容,那应该是<strong>这个标签而不是<b>,另外,内联样式太多,应该尽量使用样式类控制样式。
    这样的话可以使HTML代码更简洁,对蜘蛛更做好。一个网站是否被收录,经常是与HTML代码问题无关的,你差重要查看一下域名是事有问题,空间是否有问题(IP地址),另外,是不是搜索引擎谨慎收录新站,还是其它问题等。
      

  9.   

    应该不受影响,你看baidu,google他们自已的网站就是连成一行的。
      

  10.   

    连成一行可以很大程度上减少页面的大小,这是好事情。想被搜索引擎收录,可以试试定义robots.txt试试,放在网站根目录,可以有效的引导搜索引擎爬你的网站
      

  11.   

    我的网站前途都是输出不缩进的html。节省很多硬盘和带宽。
      

  12.   

    没有影响.我们的网站也是这样的.有收录.还挺多<script src="/Js/ShowTitler.js" type="text/javascript"></script><script type="text/javascript" src="/Js/magicAjax/AjaxCallObject.js"></script>
    <script src="/WebResource.axd?d=k18WYYD2oggJkwcakuQ27-qvO6uyumVaBvY3IGAZLyugDoTK6iorxPQT1fgzVL_OgqdqDfnkkNGHwUhK492UeA2&amp;t=633873275111093750" type="text/javascript"></script> <div id="Global">  <script language="javascript" type="text/javascript" src="/Js/GetListFromTable.js"></script><div id="Header"> <div id="TopMenu">  <div style="width: 100%;"> <div id="TopLeftMenu">  <a class="loginit" href="/Register.aspx">用户注册</a><br /> <a class="loginit" href="/WebLogin.aspx">会员登录</a>  </div> <div id="TopRightMenu">   <img class="imgmid" onclick="window.location.href='/Default.aspx'" src="/Images/homepage.gif"  alt="网站首页" onmouseover="this.src='/Images/homepage_mouseover.gif'" onmouseout="this.src='/Images/homepage.gif'" /><img class="imgmid" src="/Images/topmenu_vline.gif" /><img class="imgmid" onclick="window.location.href='/Licensing.aspx'" src="/Images/ppsq.gif" alt="品牌授权" onmouseover="this.src='/Images/ppsq_mouseover.gif'" onmouse
      

  13.   

    我一直认为搜索引擎是先搜索一个页面文件的头部<meta>,先看看是否有keyword内容,如果有才继续搜索页面内容~~~~~
      

  14.   

    主要要看你的HTML代码是否符合W3C的标准,如果符合标准,爬虫肯定能爬到(要添加sitemap文件,和robots.txt文件,要让爬虫知道你的网站的目录结构。否则你的网站收录的页面会很少的。)。
      

  15.   

    符合标准就好,主要是维护困难,这种代码是通过写程序,自动生成的,所以排版很杂乱!
    83601344 .NET 网络应用技术群,欢迎加入!
      

  16.   

    理论上来说不会影响,机器是不会在意你有没有空格和缩进的,只要语法正确(对于HTML来说是基本正确)就行。
      

  17.   

    爬虫为什么喜欢标准的html文档,那是因为更容易解析
    而且正确的标签更能告诉爬虫们他的重要性和作用,比如metal的keyword,强调的b、strong,爬虫们在分析了网页内容的同时,也可能考虑了标签对内容的影响。
      

  18.   

    一行显示最好的。主要是SEO没有弄好。
    java里面有freeer可以做这种压缩
    http://m.ttspace.net
    我的网站里面body就是压一行的
      

  19.   

    个人觉得这样更好. 爬虫是程序匹配的和 我们视觉感受完全两码事.
    这样的代码量更少.,更好
    只要 页面遵循W3C标准就好了
    要收录多的话. 就搜索下 SEO的知识了解下就好了
      

  20.   


    呵呵, url 地址最好全用 /  绝对路径.