SEO优化过程中如何禁止收录某些页面

郭超超于 2019-05-14 发表

  在我们给网站做SEO优化的过程中,经常会有一些页面不想被搜索引擎收录,比如说正在测试的未正式上线的页面、登录提交页面或一些付费页面,重复页面等,这时候就需要采取一些措施,让不搜索引擎不收录这些页面。搜索引擎收录页面的方式是很多很多的,就算你不专门去做她,他也是有可能被百度收录的。好在搜索引擎也给出了禁止收录的方法。

  有的人可能认为网站中那个页面不想被收录,就使用nofollow标签凭条了就可以,使用nofollow是能够其他禁止搜索引擎访问的目的,但是搜索引擎不从这里访问,也可以从其他地方来进行访问吗,所以说使用nofollow标签并不是万无一失的,要向确保页面不被搜索引擎收录,可以使用robots文件,或者使用meta robots标签。

  搜索引擎蜘蛛每当访问网站时,都会先检查根目录下的robots文件,robots文件就是一个设定访问规则的一个纯文本文件,用于指引搜索引擎抓取某些内容或不抓取某些内容,对于里面设定的禁止搜索引擎访问的文件或目录,搜索引擎一般也就不会去访问,当然,如果网站没有robots文件或者robots文件为空的时候,就意味着网站所有内容都是允许访问的。

  Meta robots文件也是用于禁止蜘蛛访问特定页面的一个元标签,和robots不同,robots是用于网站根目录的,指引整个网站各个页面的访问规则,而meta robots使用在页面级别的,就是告诉蜘蛛,这个页面中的链接都是禁止跟踪的。Mata robots有两个属性值,分别是noindex 和nofollow ,noindex是告诉蜘蛛不索引这个页面,nofollow告诉蜘蛛不跟踪页面上的链接,在具体使用过程中灵活搭配即可。

阅读上一篇: 上一篇:职场负面情绪的危害?

阅读下一篇: 下一篇:如何做一名合格的新媒体编辑人员呢