在線網站robots.txt文件生成器

robots.txt生成器,robots.txt寫法,robots協議
限制目錄:每個路徑之前都要包含:"/"

Sitemap:留空爲無,谷歌爲xml格式,百度爲html格式

所有搜索引擎:
  • 允許
    拒絕
國內搜索引擎
  • 百度
    默認
    允許
    拒絕
  • SOSO
    默認
    允許
    拒絕
  • 搜狗
    默認
    允許
    拒絕
  • 有道
    默認
    允許
    拒絕
國外搜索引擎
  • 谷歌
    默認
    允許
    拒絕
  • Bing
    默認
    允許
    拒絕
  • 雅虎
    默認
    允許
    拒絕
  • Ask/Teoma
    默認
    允許
    拒絕
  • Alexa/Wayback
    默認
    允許
    拒絕
  • Cuil
    默認
    允許
    拒絕
  • MSN Search
    默認
    允許
    拒絕
  • Scrub The Web
    默認
    允許
    拒絕
  • DMOZ
    默認
    允許
    拒絕
  • GigaBlast
    默認
    允許
    拒絕
特殊搜索引擎(機器人)
  • Google Image
    默認
    允許
    拒絕
  • Google Mobile
    默認
    允許
    拒絕
  • Yahoo MM
    默認
    允許
    拒絕
  • Yahoo Blogs
    默認
    允許
    拒絕
  • MSN PicSearch
    默認
    允許
    拒絕

請將以上結果保存到記事本,命名爲robots.txt上傳到網站根目錄

工具簡介

Robots.txt 是存放在站点根目录下的一个纯文本文件。虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。

使用方法:

Robots.txt 文件应该放在网站根目录下,并且该文件是可以通过互联网进行访问的。
例如:如果您的网站地址是 http://www.yourdomain.com/那么,该文件必须能够通过 http://www.yourdomain.com/robots.txt 打开并看到里面的内容。

格式:

User-agent:

用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"这样的记录只能有一条。

Disallow:

用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開頭的URL均不會被Robot訪問到。

舉例:

例一:"Disallow:/help"是指/help.html 和/help/index.html都不允許搜索引擎蜘蛛抓取。

例二:"Disallow:/help/"是指允許搜索引擎蜘蛛抓取/help.html,而不能抓取/help/index.html。

例三:Disallow记录为空说明该网站的所有页面都允許被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。

#:Robots.txt 协议中的注释符。

综合例子 :

例一:通过"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目录,以及 "/tmp/"目录和 /foo.html 文件,设置方法如下:

User-agent: *

Disallow: /bin/cgi/

Disallow: /tmp/

Disallow: /foo.html

例二:通过"/robots.txt"只允許某个搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允許名为"slurp"的搜索引擎蜘蛛抓取,而拒絕其他的搜索引擎蜘蛛抓取 "/cgi/" 目录下的内容,设置方法如下:

User-agent: *

Disallow: /cgi/

User-agent: slurp

Disallow:

例三:禁止任何搜索引擎抓取我的網站,設置方法如下:

User-agent: *

Disallow: /

例四:只禁止某個搜索引擎抓取我的網站如:只禁止名爲“slurp”的搜索引擎蜘蛛抓取,設置方法如下:

User-agent: slurp

Disallow: /

更多参考资料 (英文版)

robots.txt是什麽
robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什麽文件是可以被查看的,也可以指定sitemap的路徑。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。 Google和百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫。robots.txt必須遵循robots.txt協議使用標准語法,嚴格按照用法來編寫,不然會造成搜索引擎無法訪問你的網站。
robots.txt文件的格式
"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
   <field><optional space><value><optional space>
在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,後面加上若幹Disallow和Allow行,詳細情況如下:
User-agent:
该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受 到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。 如果该项的值设为*,则对任何robot均有效, 在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、 Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

Disallow:
该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。 例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"则允許robot访问/help.html、/helpabc.html, 不能访问 /help/index.html。"Disallow:"说明允許robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一 条Disallow记录。如果"/robots.txt"不存在或者为空文件, 则对于所有的搜索引擎robot,该网站都是开放的。

Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允許robot访问的。 例如"Allow:/hibaidu"允許robot访问/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一个网站的所有URL默認是Allow的,所以Allow通常与Disallow搭配使用, 实现允許访问一部分网页 同时禁止访问其它所有URL的功能。

使用"*"and"$":
Baiduspider支持使用通配符"*"和"$"來模糊匹配url。
"$" 匹配行结束符。
"*" 匹配0或多个任意字符。
robots.txt文件參考資料
robots.txt文件的更具體設置,請參看以下鏈接:
百度搜索幫助中心-禁止搜索引擎收錄的方法
Web Server Administrator's Guide to the Robots Exclusion Protocol
HTML Author's Guide to the Robots Exclusion Protocol
The original 1994 protocol description, as currently deployed
The revised Internet-Draft specification, which is not yet completed or implemented
`