剖析搜索引擎蜘蛛工作原理
發(fā)布時間:2013-12-12 瀏覽:213打印字號:大中小
剖析搜索引擎蜘蛛工作原理
SEO 搜索引擎技術,以抓取網(wǎng)絡中海量信息為主導。隨著各式各樣的信息增長,該技術作用變得越來越凸出。作為SEO技術人員,雖沒必要像ZAC對搜索引擎優(yōu)化技術了解的很透徹,但是分析了解搜索引擎蜘蛛其對文件的處理方法、研究其搜索與更新策略,都是SEOer該有的、該學習的業(yè)務發(fā)展方向(需要)。任何一個網(wǎng)站只要內(nèi)容(更新)、外鏈(數(shù)量質量)都能看到搜索引擎對該網(wǎng)站做出相對應的分析,進而增加頁面權重。了解搜索引擎技術,從而為我們根據(jù)實質性的原理來進行搜索引擎優(yōu)化,這才是SEO明智之舉,而不是每天單純的在那發(fā)外鏈、更新網(wǎng)站內(nèi)容....,所以,我們就下面簡單介紹搜索引擎核心檢索技術。
首先;蜘蛛工作原理:
通常我們說的網(wǎng)絡蜘蛛也就是搜索引擎蜘蛛,是通過鏈接地址來尋找網(wǎng)頁的。搜索引擎蜘蛛名稱根據(jù)搜索引擎的不同而不同。但它的原理都相同的,都是由一個起始鏈接開始抓取網(wǎng)頁內(nèi)容,同時也采集網(wǎng)頁上的鏈接,并將這些鏈接作為它下一步抓取的鏈接地址,如此循環(huán),直到達到某個停止條件后才會停止。停止條件的設定通常是以時間或是數(shù)量為依據(jù),可以以鏈接的層數(shù)來限制網(wǎng)絡蜘蛛的爬取。同時頁面信息的重要性為客觀因素決定了蜘蛛對該網(wǎng)站頁面的檢索。
其實,站長工具中的搜索引擎蜘蛛模擬器也就是用了這個原理,基于結果如何(準不準),我沒去考證過,有興趣的站長們可以去試試。基于這蜘蛛工作原理,站長都會不自然的增加頁面關鍵詞出現(xiàn)次數(shù),雖然對密度產(chǎn)生量的變化,但對蜘蛛而言并沒達到一定質的變化,這點在搜索引擎優(yōu)化過程中應該要避免的。
其次;搜索引擎蜘蛛與網(wǎng)站的交互問題:
基于搜索引擎技術基礎看出,當蜘蛛爬行抓取到網(wǎng)站時,通常會去檢索一個文本文件Robots.txt,這個文件通常存放在網(wǎng)站的根目錄下。它是專門用來同網(wǎng)絡蜘蛛交互用的專用文件。這也就是很多SEOer老是去屏蔽網(wǎng)站頁面不想被搜索引擎抓取的原因。但它也是一個網(wǎng)站和搜索引擎蜘蛛對話的重要工具,但蜘蛛是否都遵循站長對其實施的規(guī)則呢? 其實蜘蛛遵循不遵循重點還是得看蜘蛛本身,素質高的會遵循規(guī)則,反之亦然。
另外,在網(wǎng)站中放入一個叫做sitmap的網(wǎng)頁,并將它作為網(wǎng)站的入口文件,這也是蜘蛛與網(wǎng)站的交互方法。對于交互性的SEO手段,我們了解了就可以針對性的做出符合搜索引擎蜘蛛喜好的網(wǎng)站地圖。