> 백엔드 개발 > PHP 튜토리얼 > php代码禁止搜索引擎蜘蛛解决方案

php代码禁止搜索引擎蜘蛛解决方案

WBOY
풀어 주다: 2016-06-13 13:53:12
원래의
2400명이 탐색했습니다.

php代码禁止搜索引擎蜘蛛
其实robots.txt也不是百分之百的可以阻止蜘蛛爬行你的网站,我自己结合某些资料写了一小段代码,貌似可以彻底解决这个问题,不对的地方请大家多多指教:

PHP code
<!--

Code highlighting produced by Actipro CodeHighlighter (freeware)
http://www.CodeHighlighter.com/

-->
if(preg_match("/(Googlebot|Msnbot|YodaoBot|Sosospider|baiduspider|google|baidu|yahoo|sogou|bing|coodir|soso|youdao|zhongsou|slurp|ia_archiver|scooter|spider|webcrawler|OutfoxBot)/i", $_SERVER['HTTP_USER_AGENT']))
{

    header('HTTP/1.1 403 Forbidden');
    exit;
}

로그인 후 복사


------解决方案--------------------
LZ的思路我懂了 但是每个文件都包含这段文字还是主页包含就好了?
------解决方案--------------------
这招绝
------解决方案--------------------
领教了,灭绝师太
------解决方案--------------------
不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
------解决方案--------------------
探讨

不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?

------解决方案--------------------
探讨


有些东西是不希望被搜索引擎收录的,比如涉及到邮件地址、电话号码、姓名等信息

------解决方案--------------------
这种方式能阻止的都是“友好的蜘蛛”,当然也许这些“友好的蜘蛛”并没有完全尊重 robots.txt 的指示,但它至少告诉了你“我是××蜘蛛”。

如果是不友好的蜘蛛,这种判断也就失效了。
관련 라벨:
원천:php.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿