1. 首页
  2. SEO优化
  3. 正文

robots.txt文件与robots meta标签的应用

  robots.txt文件是搜索引擎蜘蛛来到网站后访问的第一个文件,我们在编写时有很多需要注意的地方,如果不注意语法的正确使用,有些语句可能发挥不了应有的作用,会影响搜索引擎对网站的访问。接下来狂人SEO分享下robots文件与robots meta标签的应用。

  robots文件可以指定sitemap的位置,写法是 sitemap:域名/sitemap.xml,这样就告诉搜索引擎蜘蛛这个地址是网站地图,如果我们有一些隐私文件要屏蔽搜索引擎蜘蛛不让其抓取时,可以在robots.txt中写上路径地址,相反网站中没有要屏蔽的内容时,则不用写明。

  示例如下:

  User-agent: *

  Disallow: /bin/

  Sitemap: https://www.krseo.com/sitemap.xml

  如果有个页面不想让搜索引擎收录但却已经收录了,我们可以通过robots meta标签来解决。robots.txt文件主要是限制整个站点或者目录的蜘蛛访问,而 robots meta标签则主要是针对某个具体的页面,此标签放在页面中,专门用来告诉搜索引擎蜘蛛如何抓取该页的内容。

  robots meta标签的基本写法是:,这是我们应该学的SEO基础知识,以下是几项需要特别注意的地方:

  1、在 robots meta标签中,name="robots"表示所有的搜索引擎,也可以针对某个具体的搜索引擎,如针对百度可以写为 name="Baiduspider"。

  2、在content部分有4个指令选项,以英文逗号“,”隔开,分别是:index、follow、noindex、nofollow。

  index 指令告诉搜索引擎蜘蛛可以抓取该页面。

  noindex 指令与index指令相反,表示搜索引擎蜘蛛不可以抓取该页面。

  follow 指令表示搜索引擎蜘蛛可以爬行该页面上的链接。

  notollow 指令与 follow指令相反,表示搜索引擎蜘蛛不可以爬行该页面上的链接。

  综上所述,robots meta标签有以下4种组合:

  当robots meta标签的content值为"index,follow"时,表示这个页面可以被抓取,此页面上的链接也可以被继续爬行,标签可以简写成。

  当robots meta标签的content值为"noindex,nofollow"时,表示这个页面不可以被抓取,此页面上的链接也不可以被继续爬行,标签可以简写成。

  以上是robots.txt文件与robots meta标签用法。当发现网站中某个页面需要屏蔽蜘蛛抓取时,可以在该页面的源代码的和之间添加robots meta标签。

    延伸阅读

  • robots.txt是什么?robotstxt怎么写?

    一、什么是robots.txt?robots是网站和搜索引擎协议的纯文本文件,当一个搜索引擎蜘蛛来访问站点的时候,首先爬行检查根目录是否存在这个文件。如果存在的话,那么就会根据...

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://lnbdc.com/article/3943.html

(function(){ var src = (document.location.protocol == "http:") ? "http://js.passport.qihucdn.com/11.0.1.js?1d7dde81dc0903e04d3ac0b9599444f6":"https://jspassport.ssl.qhimg.com/11.0.1.js?1d7dde81dc0903e04d3ac0b9599444f6"; document.write('<\/mip-script>'); })(); (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();