点击解锁VIP可享全站免费下载 零基础搭建绿幕直播间卖货赚钱 闪豚AI训练★批量生成原创好文章 本广告位待租本广告位待租待租
点击解锁VIP可享全站免费下载 零基础搭建绿幕直播间卖货赚钱 高质量SEO原创文章生成☆过AI检测 本广告位待租本广告位待租待租
点击解锁VIP可享全站免费下载 零基础搭建绿幕直播间卖货赚钱 NLP原创SEO文章AI自动生成教学 本广告位待租本广告位待租待租

温馨提示:需广告位请联系广告商务经理

robots.txt 写法和使用

robots是网站的一个文件,但不是必须要有的,没有也是可以的,如果有就是正确的设置,告诉搜索引擎,哪些可以爬,哪些不能爬。主流的搜索引擎都遵守robots协议,站长可以自己选择哪…

Robots是网站的一个文件,但不是必须的。如果是,则可以正确设置。告诉搜索引擎哪些可以抓取,哪些不可以。所有的主流搜索引擎都遵守robots协议,站长可以选择哪些可以收录,哪些不想收录。

Robots.txt必须放在网站的根目录下,文件名必须全小写。

robots.txt文件的写入

User-agent:用于声明蜘蛛的名称(注意区分大小写)

Google: Googlebot百度蜘蛛:Baidu spider雅虎蜘蛛:Slurp bing蜘蛛:Bingbot搜狗蜘蛛:搜狗蜘蛛有道蜘蛛:YodaoBot

Disallow:用于声明不希望被爬网的URL或文件。

示例:Disallow: /admin/是admin目录下的文件。

不允许: /abc/*。禁止html抓取ABC目录下所有带html后缀的文件。

不允许:/*。jpg$禁止攀爬所有jpg图片。

$ ‘匹配行结束符。* ‘匹配0个或多个任意字符。

Allow的用法与Disallow相同,只是DisAllow是禁止的,Allow是允许的。

请务必注意,Allow和Allow行的顺序是有意义的。机器人将根据允许或不允许行的第一次成功匹配来确定是否访问URL。

免责说明

本站资源大多来自网络,如有侵犯你的权益请提交工单反馈(点击进入提交工单) 或给邮箱发送邮件laakan@126.com 我们会第一时间进行审核删除。站内资源为网友个人学习或测试研究使用,未经原版权作者许可,禁止用于任何商业途径!请在下载24小时内删除!

给TA打赏
共{{data.count}}人
人已打赏
!
也想出现在这里? 联系我们
广告信息
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索