美文网首页
linux网站设置nginx禁止谷歌蜘蛛抓取

linux网站设置nginx禁止谷歌蜘蛛抓取

作者: 黑豆技术 | 来源:发表于2021-03-18 20:30 被阅读0次

if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot") { return 403; }

#代码来自www.shangxuebavip.com ———————————————— 

宝塔面板下操作,进入网站管理,设置,配置文件,添加如上代码

相关文章

  • linux网站设置nginx禁止谷歌蜘蛛抓取

    if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|G...

  • Niche站如何设计网站结构?

    ​网站结构清晰有逻辑,是SEO优化基础条件之一,不仅方便访客了解内容,更好的用户体验,也利于谷歌蜘蛛抓取收录,是N...

  • SEO原理

    网民→百度(搜索引擎)→服务器→分析→蜘蛛→目录→网站。 蜘蛛→网站,称为抓取环节 分析→蜘蛛→目录,称为处理环节...

  • 2018-02-25

    网民→百度(搜索引擎)→服务器→分析→蜘蛛→目录→网站。 蜘蛛→网站,称为抓取环节 分析→蜘蛛→目录,称为处理环节...

  • 怎样优化网站才会让百度蜘蛛来抓取网站?

    SEO目的在于提高网站的搜索引擎排名,这就需要搜索蜘蛛经常来抓取网站的信息才可以,如何让百度蜘蛛来抓取网站的信息也...

  • 安装WP后基本设置

    禁止搜索引擎抓取 因为刚新建,还没有完成网站建立,不适合搜索引擎抓取。 后台->设置->阅读->对搜索引擎的可见性...

  • Nginx如何设置禁止IP访问网站

    需要禁止IP访问网站.在相关的server中设置相关的限制即可.

  • Nginx 防止爬虫

    Linux系统环境 网页爬虫(又称网页蜘蛛/网络机器人等) 1、一种按照一定的规则自动地抓取网站信息的程序或脚本。...

  • 巧用网站禁止收录机制屏蔽蜘蛛抓取页面

    基于网站安全与盈利的因素,站长并不希望某些目录或页面被抓取和收录,比如付费内容、测试阶段的页面及复制内容页面等。 ...

  • nginx禁止垃圾蜘蛛访问

    /www/server/nginx/conf文件夹下建立agent_deny.conf文件nginx配置文件里加入...

网友评论

      本文标题:linux网站设置nginx禁止谷歌蜘蛛抓取

      本文链接:https://www.haomeiwen.com/subject/grwpcltx.html