不抓取如何會收錄,又怎么有排名?然而就這樣一個明顯的問題,卻有大量的網站將其忽略掉。在A5這里做SEO診斷服務的客戶中,其中“20%”的網站都會存在抓取錯誤,直接嚴重影響到網站的成長效果。今天這篇文章,如果你有幸看到,希望可以閱讀完今天這篇文章,并分享出去,因為真的會很有價值。
賀貴江:曾經診斷過一個千萬級別收錄的站點,但是索引總是被反復的剔除,又反復的收錄,企業一直找不到問題。可是當我們對網站檢查之初就發現一個怪的現象了:
1、錯誤的封禁
在百度的robots.txt的更新上,如果多次點擊“檢測并更新”就會出現時??梢愿?,但是又時常無法更新的問題。如此一來:不應當被收錄的東西,在robots.txt上禁止的被收錄了,又刪除就很正常了。那么它的問題是什么呢?并非服務器負載過度,而是因為防火墻錯誤的將部分Baiduspider列入了黑名單。
上面這個例子是robots.txt方面的抓取錯誤,作為站長最少應該每周都檢查更新一下robots.txt是否可以正常更新。之后我們再看下“頁面抓取”方面的錯誤:
2、服務器異常
常規的服務器就不說啦,大家都知道的,北上廣的一般都不錯。不過有一些特殊服務器,想必絕大多數的站長都不知道吧?例如西部數碼的“港臺服務器”就很有趣,真的是港臺的嗎?本身機房在國內,還算什么港臺?為了逃避備案而用一個港臺的IP,數據全部在國內。
這樣有什么不好呢?我們會發現:站點的服務器是經過CDN的,哪怕是你上傳的一張圖片,都會顯示為“302狀態碼”,訪問速度是提升上去了,可是這樣利于SEO嗎?呵呵噠。真不知道西數做為國內大型idc服務商是如何想的,利用那些無知嗎?
3、獲取不到真實IP
規模較大的網站,一般都會使用CDN加速,但是有些站點不僅僅對“設備”使用了CDN加速,而且還對Spider使用了加速功能。最后的結果是什么呢?如果CDN節點不穩定,那么對網站spider來講,這個問題將是致命的。
很多大型站點開放CDN的原因就是容易被攻擊,這個時候如果不做“蜘蛛回源”就可想而知了。你的站點做了CDN了嗎?請登錄百度站長平臺查看一下spider是否可以抓取真實IP地址吧!
4、頻繁的50X類錯誤
這樣的鏈接其中一個共同的特點是:當打開后,全部都是正常的,那么Spider為什么會報錯提醒呢?只是因為在爬蟲發起抓取的那一刻,httpcode返回了5XX',你的站點是否頻繁有這樣的問題呢?有的話需要立即安排技術,或者通報IDC服務商做解決了!
5、錯誤的抓取比例
任何網站都做不到100%不出問題,但是萬事有一個度:我們認為,這個比例不超過5%,對網站基本上是無影響的,且這樣的錯誤不應當每天都出現。最常見的抓取錯誤一般都是連接超時:'抓取請求連接建立后,下載頁面速度過慢,導致超時,可能原因服務器過載,帶寬不足'這種情況:
A:盡量在不影響圖片質量的情況下,對圖片進行壓縮,上傳的時候就進行了壓縮。
B:減少如JS腳本文件類型的使用,或者進行合并
C:頁面大小進行控制,尤其是一些瀏覽量、抓取量較高的頁面,不建議超過2MB。
D:增加網站的帶寬,提升下載速度,或者更換服務器。
今天這篇分享,是否對你有幫助呢?希望能對大家有所幫助!
本文來源:徐州酷優網絡科技有限公司
本文網址:https:///pinghushi/3545.html
聲明,本站文章均為酷優網絡原創或轉載,歡迎分享,轉載時請注明文章作者和“來源:徐州網站建設”并附本文鏈接
覆蓋全江蘇省的服務網絡
全國7×24小時客服熱線
病毒殺出率高于99%
網站可用性高于99.9%
最快網站3天內上線