蜂窝'互联网+'服务领导者

网站页面的长度大小和收录的关系

时间:2017-06-30 04:06:32

以下说法引用百度官方工程师在社区对一个SEOer的回答。该SEOer对图片做了爬虫优化,反而导致了高质量页面无法被百度收录。针对这个问题做了针对性回答。

工程师分析:

1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;

2、 站点优化后将主体内容放于最后,图片却放于前面;

3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。

工程师建议:

1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

3、针对爬虫爬取做优化,请将主体内容放于前方,避免抓取截断造成的内容抓取不全。

网站优化公司蜂窝在线总结:页面大小理论上应小于128k,尽量不使用js来展示你的优质原创内容

上一篇:只要想建网站,就要具备的SEO思维               下一篇:2017年MADCon大会百度专场答网友热议SEO问题

qq qq联系