Home > Backend Development > PHP Tutorial > php代码禁止搜索引擎蜘蛛解决方案

php代码禁止搜索引擎蜘蛛解决方案

WBOY
Release: 2016-06-13 13:53:12
Original
2404 people have browsed it

php代码禁止搜索引擎蜘蛛
其实robots.txt也不是百分之百的可以阻止蜘蛛爬行你的网站,我自己结合某些资料写了一小段代码,貌似可以彻底解决这个问题,不对的地方请大家多多指教:

PHP code
<!--

Code highlighting produced by Actipro CodeHighlighter (freeware)
http://www.CodeHighlighter.com/

-->
if(preg_match("/(Googlebot|Msnbot|YodaoBot|Sosospider|baiduspider|google|baidu|yahoo|sogou|bing|coodir|soso|youdao|zhongsou|slurp|ia_archiver|scooter|spider|webcrawler|OutfoxBot)/i", $_SERVER['HTTP_USER_AGENT']))
{

    header('HTTP/1.1 403 Forbidden');
    exit;
}

Copy after login


------解决方案--------------------
LZ的思路我懂了 但是每个文件都包含这段文字还是主页包含就好了?
------解决方案--------------------
这招绝
------解决方案--------------------
领教了,灭绝师太
------解决方案--------------------
不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
------解决方案--------------------
探讨

不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?

------解决方案--------------------
探讨


有些东西是不希望被搜索引擎收录的,比如涉及到邮件地址、电话号码、姓名等信息

------解决方案--------------------
这种方式能阻止的都是“友好的蜘蛛”,当然也许这些“友好的蜘蛛”并没有完全尊重 robots.txt 的指示,但它至少告诉了你“我是××蜘蛛”。

如果是不友好的蜘蛛,这种判断也就失效了。
Related labels:
source:php.cn
Statement of this Website
The content of this article is voluntarily contributed by netizens, and the copyright belongs to the original author. This site does not assume corresponding legal responsibility. If you find any content suspected of plagiarism or infringement, please contact admin@php.cn
Popular Tutorials
More>
Latest Downloads
More>
Web Effects
Website Source Code
Website Materials
Front End Template