✔ 最佳答案
樓上朋友, 抄一大段東西, 但文不到題....
其實, 搜尋引擎是一個大題目, 它涉及程式編寫, 演算法, 人工知能及資料庫技術, 還要配合適當的硬件, 才能做到一個強大的搜尋器.
而搜尋器功能, 大體分為三部份, 網絡蜘蛛 (web spider, 另一叫法web crawling), 索引 (indexing) 及 搜尋 (searching).
網絡蜘蛛的作用是用來將一個網頁作為切入點, 然後將每一個網頁裡的連結全部找出來. 而連結就是你於網站可以用滑鼠click到的連結. 當連結至下一個網頁時, 這網頁會變成另一個切入點, 不斷重複找出所有網頁來的連結後, 這些位置便會先記錄至資料庫中, 用來作下一步的工作. 到最後, 每一個連結就好像蜘蛛網般的每一條蜘蛛絲的交接點, 當夠多的話, 就會編織成一個巨大的蜘蛛網了.
完成後, 下一步是建立索引, 個人認為, 最難是這個索引的建立的工, 因為, 這涉及高階的演算法及人工智能. 大體是, 將一整編文章, 分析, 然後找出該文章的一些關鍵詞及該關鍵詞相對於該網站的適合度, 找到後, 便會將這些關鍵詞儲存至資料庫中. 要做到不能, 但要做到好像google那樣快準多就真的非常難 (之所以google能於search engine獨領風騷是有原因的).
最後, 當然是搜尋了, 有了之前的步驟後, 這步驟就最容易了, 只要將輸入的搜尋字, 跟資料庫的關鍵字作比較, 便能找到最相似的值及網站作排列.
而第一及第二步驟的伺服器是不停地運作的
若你想了解多些關於這方面知識, 可到以下網站看看, 老實說, 小弟都只是於大學初步涉獵而已, 如有錯誤, 請見諒.
http://en.wikipedia.org/wiki/Web_search_engine
2008-11-10 21:37:53 補充:
想知更多有關開發search engine, 你可用develop search engine作為關鍵詞於google上找