首页/网络工具/Robots.txt生成器

Robots.txt生成器

快速生成robots.txt文件,控制搜索引擎爬虫

基本配置

快速模板

生成的 robots.txt

使用说明

  • User-agent: 指定爬虫,* 表示所有爬虫
  • Disallow: 禁止爬取的路径
  • Allow: 允许爬取的路径(优先级高于Disallow)
  • Sitemap: 网站地图URL,帮助搜索引擎索引
  • Crawl-delay: 爬虫访问间隔时间(秒)