✔ 最佳答案
其實不是如樓上般這麼簡單的. 其實要做到網頁搜尋器, 其實是有幾部份的. 第一, 先將網頁的特點分析, 第二, 將這個結果儲存至資料庫內, 最後, 根據使用輸入的重點字眼, 搜尋資料庫內, 相似的記錄, 然後按其計算出來的相似值, 回傳給客戶端.
第一步驟, 是靠網絡蜘蛛 (spinder)來做. 其理念就好似於蜘蛛網般, 逐條蜘蛛絲的分支, 向下搜尋. 最開始, 系統會隨機找一個網站(通常會找較大型網站) 來作尋找的起點, 系統會讀入整個網頁的文字, 然後分析該網頁有什麼重點字眼, 方法是讀入文字後, 轉變為一個棒型圖般的數據, 然後便記錄至資料庫內, 但其難處是, 某些字眼是沒有什麼意思, 而且常常出現的, 那便要靠系統的人工智能來估那些是重點字眼了, 太少出現的字眼, 不行, 太多出現的可能沒用. 當儲存過後, 系統會於該網頁的逐個超連結向下搜尋, 重複上文的步驟, 周而復始.
所以spinder的工作量是非常龐大的, 因此不會只使用一個伺服器, 而多是一組伺服器來處理工作, 而且是分開不會跟客戶端作查詢的伺服器一起的.
當儲存至資料庫後, 便可以由客戶端向專門處理客戶詢問的伺服器回傳相關查詢了.