robots.txt

98,870次阅读

robots.txt是什么?

有没有想过,如果我们某个站点不让百度和google收录,那怎么办?

搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。

这个写约定的的文件命名为:robots.txt。


robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

关于robots.txt一般站长需要注意以下几点:

1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。

2、必须命名为:robots.txt,都是小写,robot后面加"s"。

3、robots.txt必须放置在一个站点的根目录下。如:通过https://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。

4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。

5、观察这个页面并修改为自己的:https://www.seowhy.com/robots.txt

6、有几个禁止,就得有几个Disallow函数,并分行描述。

7、至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。


补充说明:

User-agent: *  星号说明允许所有搜索引擎收录

Disallow: /search.html   说明 https://www.seowhy.com/search.html 这个页面禁止搜索引擎抓取。

Disallow: /index.php?   说明类似这样的页面http://www.seowhy.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。


阅读本文的人还可以阅读:

如何使用标签阻止网页被收录?

作者:夫唯学院SEO培训  修订1.4  2018-12-25

搜外专注SEO在线系统培训,10年来超过五万学员在此获得技术提升和人脉圈子。

SEO课程已融入到移动搜索、零基础建站、群站SEO思维、搜外6系统、SEM入门等。

我要加群
微信扫码添加客服人员
  • 搜外会员SEO交流群(免费)

    微信扫码添加客服人员
  • 小程序运营交流群(免费)

    微信扫码添加客服人员
  • 搜外会员SEM竞价交流群(免费)

    微信扫码添加客服人员
  • 夫唯学员SEO交流群(VIP)

    微信扫码添加客服人员
获取资源 联系获取
微信扫码添加客服人员
  • 本地生活服务业友链群

    微信扫码添加客服人员
  • 工业品网站友情链接群

    微信扫码添加客服人员
  • SEO团队KPI管理表格

    微信扫码添加客服人员
  • 网络推广执行细案

    微信扫码添加客服人员
  • 客户跟踪记录表

    微信扫码添加客服人员
  • 关键词分析模板

    微信扫码添加客服人员

快来夫唯学院学习SEO知识吧!
十年SEO经验,倾囊相授

关键词、长尾词、群站、算法......
: