用代码完美实现wordpress蜘蛛爬行记录生成,远离插件,热爱速度!

最近分享者资源-柠檬看群里很多人在用wordpress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个规律我们再来写文章,这样符合了蜘蛛的胃口是很利于优化的。。。但是小编一直提倡着远离插件,热爱速度的口号,所以今天就教大家用代码完美实现wordpress蜘蛛爬行记录生成功能!

教程开始

wordpress主题文件目录下找到function文件,用代码编辑软件打开,在<?php ?>内的任意位置增加下面一段代码即可完成wordpress蜘蛛爬行记录生成的功能!

function get_naps_bot(){
$useragent = strtolower($_SERVER[\'HTTP_USER_AGENT\']);
if (strpos($useragent, \'googlebot\') !== false){
return \'Googlebot\';
}
if (strpos($useragent, \'msnbot\') !== false){
return \'MSNbot\';
}
if (strpos($useragent, \'slurp\') !== false){
return \'Yahoobot\';
}
if (strpos($useragent, \'baiduspider\') !== false){
return \'Baiduspider\';
}
if (strpos($useragent, \'sohu-search\') !== false){
return \'Sohubot\';
}
if (strpos($useragent, \'lycos\') !== false){
return \'Lycos\';
}
if (strpos($useragent, \'robozilla\') !== false){
return \'Robozilla\';
}
return false;
}
function nowtime(){
date_default_timezone_set(\'Asia/Shanghai\');
$date=date(\"Y-m-d.G:i:s\");
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER[\'HTTP_USER_AGENT\']);
$url=$_SERVER[\'HTTP_REFERER\'];
$file=\"robotslogs.txt\";
$time=nowtime();
$data=fopen($file,\"a\");
$PR=\"$_SERVER[REQUEST_URI]\";
fwrite($data,\"Time:$time robot:$searchbot URL:$tlc_thispage\\n page:$PR\\r\\n\");
fclose($data);
}

注意事项

使用上面这段代码后,最好在网站的根目录创建个robotslogs.txt的文件,并且linux主机设置权限为777,然后过段时间,访问http://网址/robotslogs.txt 即可看到蜘蛛爬行记录了!

一些说使用后出错的朋友,请研究下function文件内,插入的位置!

文章来自分享者资源https://52sharew.cn转载请保留本链接,谢谢!

免责声明:本资源来源于互联网,安全性未知,使用前请自行甄别;本资源来源于互联网,如有侵权请及时联系我们,我们将在72小时内删除侵权内容;本资源存储在云盘,如发现链接失效,请 点此反馈 我们会第一时间更新。
吾爱分享者资源 » 用代码完美实现wordpress蜘蛛爬行记录生成,远离插件,热爱速度!

发表评论