|
SEO排名優化,為什么要常看日志?在做SEO的過程中,我們總是會遇到各種莫名其妙的問題,比如:某一天你的網站突然出現收錄緩慢的問題,而平時都是秒收錄。 最開始我們在做審查的時候,總是在思考: ①是否搜索引擎算法在調整。 ②是否自己的內容質量不高。 ③是否是普遍大眾的情況。 但很少有SEO從業者,嘗試去查看的相關情況。那么,SEO排名優化,為什么要常看日志? 根據以往的經驗,如下內容闡述: 1、垃圾爬蟲 如果你的網站運營一段時間,在谷歌和百度的收錄情況還比較好,并且具備一定的流量與權重,這個時候就可能存在“垃圾爬蟲”廣泛爬取的情況。 通常這類爬蟲主要分為如下幾種類型: ①國外的一批的搜索爬蟲,主要用于提取網站的鏈接狀態。 ②網站鏡像的代理爬蟲,通常都會進行偽裝。 ③極個別的數據分析爬蟲。(網站比較優秀,SEO研究者對你的分析) 這些爬蟲除了鏡像,實際上并沒有從優排名的角度給我們帶來諸多問題,但是它卻非常容易占用大量的服務器資源,特別是如果你還是一個非知名主機商的虛擬主機。 如果你想要快速檢索你的站點爬蟲數量,我們可以通過一個小策略,查看文件的訪問情況,這只是一個小技巧。 2、站內搜索 我相信從目前來看,基本上除了單頁組合頁面之外,都會存在站內搜索框這個功能,畢竟大量的CMS系統都會配置這個功能,特別是一些模板建站的企業網站。 在很長一段時間里,我們早前給大家解讀過一個偏灰帽的策略,雖然是老套路,而不經常被提及,但還是仍然有人沿用至今,簡要流程如下: ①尋找具備搜索框的高權重網站。 ②在高權重網站搜索框中,輸入一段代碼。 ③基于一些搜索框的設計策略,部分的搜索結果頁面會直接反饋出具有錨文本鏈接的外鏈。 這樣一些習慣性利用系統漏洞的灰帽,就會這樣無形之中建立一個高權重的外鏈。 而之后,便有了多個類似于該策略的變體版本,比如:在搜索框中輸入第三方網址等等。 實際上,這個問題,如果你不去查看日志,是很難發現的,但由于對方操作的策略,都是利用軟件自動檢索,這會直接影響網站加載速度。 因此,從SEO角度來講,我們第一時間就應該在robots.txt中屏蔽搜索結果頁面。 而后,從網站運營來講,不是特別必須,我們可以采用第三方搜索框,比如:百度站內搜索。 3、漏洞掃描 網站安全漏洞掃描,這個是對于任何一個網站都可能會遇到的事情,比如:我們經常可以在自己的站點數據中,看到大量的的訪問情況。 它可能會出現各種CMS系統后臺的登錄地址,以及一些容易出現漏洞的文件,通常這些情況都是基礎性的漏洞掃描。 如果出現長期這樣的問題,并且IP地址固定的話,我們可以進行有效的攔截,同時,基于優排名的角度,我們還是建議大家建立404頁面。 |