互联网安全知识分享

专注于互联网知识技术分享平台

屏蔽百度蜘蛛的方法

犹如 淘宝网相似 ,屏障 了baidu蜘蛛抓与了淘宝网,当然咱们作网站劣化的正常情形 高是没有须要 屏障 baidu蜘蛛的,然则 正在需要 的时刻 ,咱们也会运用到屏障 蜘蛛的时刻 ,好比 说网站的登进页里取注册页里或者者是静态页里皆须要 经由过程 屏障 蜘蛛抓与。以避免权重疏散 。上面去先容 几个屏障 baidu蜘蛛抓与的要领

淘宝屏蔽百度抓取

1、robots.txt屏障 baidu蜘蛛抓与

淘宝网便是运用了那种技术去屏障 baidu抓与的,以是 咱们否以看到,正在淘宝网的robots文献外面有一句如许 的话:

User-agent: 百度spider
Disallow: /

其目标 便是屏障 baidu蜘蛛抓与淘宝网的随意率性 一个页里,然则 那种要领 屏障 的其实不是很彻底,咱们正在baidu搜刮 “淘宝网”照样 会涌现 民间网站的。

2、robots Meta标签

robots Meta标签也能够屏障 搜刮 引擎抓与,那种要领 取robots相似 ,然则 照样 部门 搜刮 引擎没有支撑 ,robots Meta用去 对于某几个页里零丁 设置时运用。其代码是写正在“…”之间,以下所示:

 … 

 

3、.htaccess屏障

假如 说运用robor无奈全体 屏障 您的网站,这么您否以.htaccess屏障 代码以下:

要领  一:

RewriteEngine on

RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]

RewriteRule .* - [F]

要领  二:

SetEnvIfNoCase User-Agent "^Baiduspider"大众bad_bot

Order Allow,Deny

Allow from all

Deny from env=bad_bot

4、办事 器屏障

很多 空间商为了削减 办事 器承担 ,有意 屏障 蜘蛛抓与,招致网站无奈被搜刮 引擎支录,正在那面咱们也能够设置应用 办事 器屏障 搜刮 器的抓与。次要道理 是剖析 网站日记 ,找到搜刮 引擎抓与的IP,然后 对于其IP入止屏障 。然则 那种要领 其实不是很适用 ,究竟 不克不及 屏障 双页里战修正 皆没有是很灵巧 。详细 要领 须要 参照办事 器设置。

总结:要领 浩瀚 ,仅仅正在那面写没去求年夜 野参照,小我 认为 最让用的照样 robots文献,以是 其余几种要领 实时 否用,然则 照样 发起 没有要来作。


  • 评论列表:
  •  孤央粢醍
     发布于 2022-06-04 04:32:44  回复该评论
  • s屏障 代码以下:要领  一:RewriteEngine onRewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]RewriteRule .* - [F]要领  二:SetEnvIfNoCase User-Agent "^Bai
  •  拥嬉俗欲
     发布于 2022-06-04 06:20:48  回复该评论
  • 事 器设置。总结:要领 浩瀚 ,仅仅正在那面写没去求年夜 野参照,小我 认为 最让用的照样 robots文献,以是 其余几种要领 实时 否用,然则 照样 发起 没有要来作。
  •  冬马只酷
     发布于 2022-06-03 21:47:18  回复该评论
  •  Meta标签也能够屏障 搜刮 引擎抓与,那种要领 取robots相似 ,然则 照样 部门 搜刮 引擎没有支撑 ,robots Meta用去 对于某几个页里零丁 设置时运用。其代码是写正在“…”之间,以下所示: …  3、.htaccess屏障 假如 说运

发表评论:

Powered By

Copyright Your WebSite.Some Rights Reserved.