网页长度过长也会影响到收录

来源:http://www.m-y.org.cn/ 发布时间:2018/3/6 浏览量:373次

  有站长向我们反应说自己的网站内容由js代码生成,并且网站针对爬虫抓取做了优化,网站中的图片也做了base64转变,优化之后网站内容收录效果非常不理想,这个是为什么?下面合肥网站制作的小编来给大家分析一下。
  页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?
  工程师分析:
  1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;
  2、 站点优化后将主体内容放于最后,图片却放于前面;
  3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。
  工程师建议:
  1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取
  2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长
  3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全
  以上就是合肥网站制作的小编给大家整理的内容,希望对大家有所帮助。更多相关信息请大家访问:http://www.m-y.org.cn/

  • 合肥中拓网络科技有限公司

    版权所有 本站关键词:合肥网站关键词优化 合肥网站制作

  • 全国服务热线:153-4560-4419

    地址:安徽合肥天达路2号安徽大学科技园创新楼四楼

    QQ:272579841