摘要
做好網(wǎng)站SEO優(yōu)化的第一步就是首先讓蜘蛛爬蟲(chóng)經(jīng)常來(lái)你的網(wǎng)站進(jìn)行光顧,下面的Linux命令可以讓你清楚的知道蜘蛛的爬行情況。下面我們針對(duì)nginx服務(wù)器進(jìn)行分析,日志文件所在目錄:/usr/local/nginx/logs/access.log,access.log這個(gè)文件記錄的應(yīng)該是最近一天的日志情況,首先請(qǐng)看看日志大小,如果很大(超過(guò)50MB)建議別用這些命令分析,因?yàn)檫@些命令很消耗CPU,或者更新下來(lái)放到分析機(jī)上執(zhí)行,以免影響網(wǎng)站的速度。
Linux shell命令
1. 百度蜘蛛爬行的次數(shù)
cat access.log | grep Baiduspider | wc
最左面的數(shù)值顯示的就是爬行次數(shù)。
2. 百度蜘蛛的詳細(xì)記錄(Ctrl C可以終止)
cat access.log | grep Baiduspider
也可以用下面的命令:
cat access.log | grep Baiduspider | tail -n 10
cat access.log | grep Baiduspider | head -n 10
只看最后10條或最前10條,這用就能知道這個(gè)日志文件的開(kāi)始記錄的時(shí)間和日期。
3. 百度蜘蛛抓取首頁(yè)的詳細(xì)記錄
cat access.log | grep Baiduspider | grep “GET / HTTP”
百度蜘蛛好像對(duì)首頁(yè)非常熱愛(ài)每個(gè)鐘頭都來(lái)光顧,而谷歌和雅虎蜘蛛更喜歡內(nèi)頁(yè)。
4. 百度蜘蛛派性記錄時(shí)間點(diǎn)分布
cat access.log | grep “Baiduspider ” | awk ‘{print $4}'
5. 百度蜘蛛爬行頁(yè)面按次數(shù)降序列表
cat access.log | grep “Baiduspider ” | awk ‘{print $7}' | sort | uniq -c | sort -r
文中的Baiduspider 改成Googlebot都可以查看谷歌的數(shù)據(jù),鑒于大陸的特殊性,大家應(yīng)該對(duì)百度的log更為關(guān)注。
附:(Mediapartners-Google)Google adsense蜘蛛的詳細(xì)爬行記錄
cat access.log | grep Mediapartners
Mediapartners-Google是什么呢?Google adsense廣告之所以能與內(nèi)容相關(guān),因?yàn)槊總€(gè)包含著adsense的廣告被訪問(wèn)后,很快就有個(gè)Mediapartners-Google蜘蛛來(lái)到這個(gè)頁(yè)面,所以幾分鐘后再刷新就能顯示相關(guān)性廣告了,真厲害啊!
ps:linux下nginx如何啟用網(wǎng)站日志,查看蜘蛛爬蟲(chóng)
默認(rèn)的路徑是你安裝時(shí)候指定的
如果用的LNMP之類(lèi)的安裝包
你可以在SHELL下
whereisnginx
找到相應(yīng)的路徑之后
在NGINX下的CONF文件夾里看配置文件,日志文件如果記錄了話(huà)
在配置文件里有路徑的~
您可能感興趣的文章:- Nginx服務(wù)器屏蔽與禁止屏蔽網(wǎng)絡(luò)爬蟲(chóng)的方法
- nginx修改配置限制惡意爬蟲(chóng)頻率
- Nginx中配置過(guò)濾爬蟲(chóng)的User-Agent的簡(jiǎn)單方法
- Nginx限制搜索引擎爬蟲(chóng)頻率、禁止屏蔽網(wǎng)絡(luò)爬蟲(chóng)配置示例
- Nginx反爬蟲(chóng)策略,防止UA抓取網(wǎng)站