# 爬蟲流程介紹
### feed節點
爬蟲系統至少有一個feed頁面,通過訪問這一個feed頁面,獲取相關鏈接。互聯網可以理解成是一張網,網就有一個一個都節點,每一個網頁我們都可以把它理解成是一個節點。feed頁面就是我們覺得非常有價值的節點,通過這個節點能夠獲取對對我們來講非常有價值的信息。爬蟲系統就是一個不斷爬取新內容對一個過程,如果一個爬蟲系統一天到晚對爬出來對都是老內容,那么這個系統也就沒有了存在對意義。
### “爬”
如何形象的理解爬蟲對這個“爬”字,我感覺把爬蟲翻譯成業務邏輯,就是一個發現新鏈接對過程,如果不對爬蟲加以限制,那么這個爬對動作就會一直執行,直到這張網對每一個節點都爬過了位置。不過我們目前設計的大部分爬蟲系統都是針對于某個垂直領域的,不會讓這個爬蟲無限制的爬下去,會對需要爬的網頁做一下甄別。
### 網頁“爬”狀態判斷
舉個簡單的例子,假設現在整個互聯網只有100個網頁,以一個網頁作為爬蟲的feed,如果不對已經爬過的網頁進行處理,那么爬蟲就會無限循環下去。造成爬蟲任務無法結束。
- Introduction
- 爬蟲相關技能介紹
- 爬蟲簡單介紹
- 爬蟲涉及到的知識點
- 爬蟲用途
- 爬蟲流程介紹
- 需求描述
- Http請求處理
- http基礎知識介紹
- http狀態碼
- httpheader
- java原生態處理http
- URL類
- 獲取URL請求狀態
- 模擬Http請求
- apache httpclient
- Httpclient1
- httpclient2
- httpclient3
- httpclient4
- httpclient5
- httpclient6
- okhttp
- OKhttp使用教程
- 技術使用
- java執行javascript
- 網頁解析
- Xpath介紹
- HtmlCleaner
- HtmlCleaner介紹
- HtmlCleaner使用
- HtmlParser
- HtmlParser介紹
- Jsoup
- 解析和遍歷一個HTML文檔
- 解析一個HTML字符串
- 解析一個body片斷
- 從一個URL加載一個Document
- 從一個文件加載一個文檔
- 使用DOM方法來遍歷一個文檔
- 使用選擇器語法來查找元素
- 從元素抽取屬性,文本和HTML
- 處理URLs
- 示例程序 獲取所有鏈接
- 設置屬性的值
- 設置一個元素的HTML內容
- 消除不受信任的HTML (來防止XSS攻擊)
- 正則表達式
- elasticsearch筆記
- 下載安裝elasticsearch
- 檢查es服務健康