Rumah > pembangunan bahagian belakang > tutorial php > php代码禁止搜索引擎蜘蛛解决方案

php代码禁止搜索引擎蜘蛛解决方案

WBOY
Lepaskan: 2016-06-13 13:53:12
asal
2402 orang telah melayarinya

php代码禁止搜索引擎蜘蛛
其实robots.txt也不是百分之百的可以阻止蜘蛛爬行你的网站,我自己结合某些资料写了一小段代码,貌似可以彻底解决这个问题,不对的地方请大家多多指教:

PHP code
<!--

Code highlighting produced by Actipro CodeHighlighter (freeware)
http://www.CodeHighlighter.com/

-->
if(preg_match("/(Googlebot|Msnbot|YodaoBot|Sosospider|baiduspider|google|baidu|yahoo|sogou|bing|coodir|soso|youdao|zhongsou|slurp|ia_archiver|scooter|spider|webcrawler|OutfoxBot)/i", $_SERVER['HTTP_USER_AGENT']))
{

    header('HTTP/1.1 403 Forbidden');
    exit;
}

Salin selepas log masuk


------解决方案--------------------
LZ的思路我懂了 但是每个文件都包含这段文字还是主页包含就好了?
------解决方案--------------------
这招绝
------解决方案--------------------
领教了,灭绝师太
------解决方案--------------------
不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
------解决方案--------------------
探讨

不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?

------解决方案--------------------
探讨


有些东西是不希望被搜索引擎收录的,比如涉及到邮件地址、电话号码、姓名等信息

------解决方案--------------------
这种方式能阻止的都是“友好的蜘蛛”,当然也许这些“友好的蜘蛛”并没有完全尊重 robots.txt 的指示,但它至少告诉了你“我是××蜘蛛”。

如果是不友好的蜘蛛,这种判断也就失效了。
Label berkaitan:
sumber:php.cn
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan