您现在的位置是:首页 >> 新闻资讯 >> 业界动态

官网适当精简代码是避免影响百度蜘蛛抓取的一个必要条件!

日期:2022-11-16
浏览次数:538

很多网站前端看着非常好,但是一查看源码就会发现内容太过杂乱,成片的注释代码加上各种无效的js以及一些前端不显示但是在源码里出现的内容。这时候我们就需要把无用的代码以及注释的代码进行删除,如果是担心后期可能会用到这些代码,可以做一个备份文件来保留这些代码。

如果用百度模拟抓取就会发现,百度给的提示是只抓取网页源码前200K的内容,如果咱们网站源码内容只能的超过200K的话,是不是有很大的可能性导致百度蜘蛛抓取我们页面出现问题呢?所以适当精简代码是避免影响百度蜘蛛抓取的一个必要条件。

1、代码压缩

代码压缩是通过一些第三方工具对页面进行压缩,压缩后的代码可以减小源码大小,其目的也是为了提升蜘蛛的抓取效率。但是代码压缩后会极大的影响源码阅读,因为整个源码就没有空行了,所有的代码全部紧挨在一起,不过遇到想要查看的源码可以通过代码美化来反压缩,这样就可以正常阅读代码了。

2、css、js精简

css和js精简分两部分,第一部分是把一些写在源码里的js、css内容写成外部调取的形式,第二部分就是对js和css文件进行合并。

多个这样的js文件又可以合并成一个,这样就从根本上减少了很多js和css的冗余代码,达到了提升网站加载速度的目的。另外css文件可以写在代码前部分,而js文件可以写在网站最后,因为大部分js都会影响加载速度,但是却不影响前端展示,放在最后可以避免影响网站展示效率。


渝公网安备 50010502000038号

电子营业执照
在线客服

在线客服