免费 Robots.txt 生成器

免费的 SEO 工具包

Robots.txt 生成器


默认 - 所有机器人都是:  
    
爬行延迟:
    
网站地图: (如果没有,请留空) 
     
搜索机器人: Google
  Google Image
  Google Mobile
  MSN Search
  Yahoo
  Yahoo MM
  Yahoo Blogs
  Ask/Teoma
  GigaBlast
  DMOZ Checker
  Nutch
  Alexa/Wayback
  Baidu
  Naver
  MSN PicSearch
   
受限目录: 路径是相对于 root 的,并且必须包含一个尾部斜杠 "/"
 
 
 
 
 
 
   



现在,在您的根目录中创建“robots.txt”文件。复制上面的文本并粘贴到文本文件中。


关于 Robots.txt 生成器

免费 Robots.txt 生成器帮助您创建 robots.txt 文件。您可以指定搜索引擎爬虫每次访问您的网站时可以访问哪些文件/URL。

Robots.txt 文件是什么?

robots.txt 文件是一个符合机器人排除标准的纯文本文件。Robot.txt 包含一些关于允许和拒绝搜索引擎机器人访问的 URL 的规则。

Robots.txt 位于您网站的根目录中。因此,https://seocheckfree.com 的 robots.txt 文件位于 https://seocheckfree.com/robots.txt。

如何使用 Robots.txt发电机?

按照以下步骤免费生成最佳 Robots.txt:

  1. 默认设置允许所有机器人抓取您的网站。如果您需要搜索引擎禁止大多数链接,您可以选择拒绝。
  2. 将抓取延迟指定为 0 到 120 秒。它是爬虫机器人爬取每个 URL 的时间间隔。如果您觉得机器人访问对您的服务器负载有不良影响,您可以设置慢速间隔。
  3. Robots.txt Generator 需要您的博客/网站站点地图 URL。您的站点地图 XML 通常位于域 example.com/sitemap.xls 的根目录中。如果您还没有创建它,我们提供XML 站点地图生成器来轻松完成。
  4. 指定特定搜索引擎机器人的权限。
  5. 如果您的网站上有一些私人目录,请在受限目录字段中指定它们。
  6. 创建您的 Robots.txt 点击按钮。您可以选择创建并另存为Robot.txt i如果您希望它自动下载到您的计算机。
  7. 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
如果您的网站上有一些私人目录,请在受限目录字段中指定它们。
  • 点击按钮创建您的 Robots.txt。您可以选择创建并另存为Robot.txt i如果您希望它自动下载到您的计算机。
  • 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
  • 如果您的网站上有一些私人目录,请在受限目录字段中指定它们。
  • 点击按钮创建您的 Robots.txt。您可以选择创建并另存为Robot.txt i如果您希望它自动下载到您的计算机。
  • 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
  • span style="color:#2ecc71;">创建您的 Robots.txt 点击按钮。您可以选择创建并另存为Robot.txt i如果您希望它自动下载到您的计算机。
  • 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
  • span style="color:#2ecc71;">创建您的 Robots.txt 点击按钮。您可以选择创建并另存为Robot.txt i如果您希望它自动下载到您的计算机。
  • 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
  • 如果您希望它自动下载到您的计算机。
  • 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
  • 如果您希望它自动下载到您的计算机。
  • 现在,创建 'robots.txt' 文件在你的根目录。复制以上文本并将其粘贴到文本文件中。
  • Robots.txt 对 SEO 很重要

    SEO 包括抓取、索引和排名。正确的 robots.txt 设置强烈支持前两个方面。Robots.txt 确保我们想要展示的 URL 应该可以被搜索引擎机器人抓取并编入索引以获得最佳排名。

    此外,robots.txt 可以防止出现将被分类的 URL作为重复内容,索引不需要出现在搜索结果页面上。

    Robots.txt 示例

    Robots.txt
    用户代理:*
    禁止:/search
    允许:/search/howsearchworks
    禁止:/admin
    禁止:/user

    Robots.txt tester

    每次访问网站时,Google 爬虫机器人都会响应 robots.txt。要验证您的 robots.txt 文件是否设置正确,您可以使用来自 Google 网站站长

    Robots.txt 的缺点:

    虽然robots.txt 文件有很多优点,但也有一些局限性。

    Robots.txt 不能阻止对特定目录的访问。

    对于那些因为有秘密文件或内容而在某些目录上使用不允许抓取命令的人,robots.txt 擅长阻止机器人访问它们,但不足以让访问者访问这些目录。

    全部禁止;那里 仍然有可能对其进行抓取和编入索引。

    Robots.txt 文件阻止 Google 查找或编入内容索引,但如果从网络上的其他地方链接了不允许使用的网址,我们仍然可以找到并索引它。Google 搜索结果将继续显示该页面的 URL 以及其他可能公开的信息,例如来自指向该页面的链接的锚文本。使用 noindex 元标记、响应标头或完全删除页面是防止您的网址出现在 Google 搜索结果中的有效方法。

    Google 搜索结果将继续显示该页面的 URL 以及其他可能公开的信息,例如来自指向该页面的链接的锚文本。使用 noindex 元标记、响应标头或完全删除页面是防止您的网址出现在 Google 搜索结果中的有效方法。

    Google 搜索结果将继续显示该页面的 URL 以及其他可能公开的信息,例如来自指向该页面的链接的锚文本。使用 noindex 元标记、响应标头或完全删除页面是防止您的网址出现在 Google 搜索结果中的有效方法。