[TOC]
## 一 **線程池使用背景**
爬蟲的本質就是client發請求批量獲取server的響應數據,如果我們有多個url待爬取,只用一個線程且采用串行的方式執行,那只能等待爬取一個結束后才能繼續下一個,效率會非常低。那么該如何提高爬取性能呢?
1. 多進程
2. 多線程
3. 進程池
4. **線程池**
5. 協程
其中最推薦初學者的就是線程池,原因如下
1. 多進程/線程的方式會頻繁創建銷毀,浪費性能
2. 線程比進程開銷小,能使用線程池就不用進程池
3. 協程雖然高效,但是實現起來復雜
## 二 線程池的實現
```python
#1. 導入模塊,re模塊的作用是解析詳情頁中的js數據
import requests,re
from lxml import etree
from multiprocessing.dummy import Pool
# 2. 設置url,headers等
url='https://www.pearvideo.com/category_2'
headers={
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36'
}
video_list=[]
# 3. 創建請求,頁面數據
res=requests.get(url=url,headers=headers).text
tree=etree.HTML(res)
# 4. 利用xpath解析
li_list=tree.xpath('//*[@id="categoryList"]/li')
for li in li_list:
video_name=li.xpath('./div/a/div[2]/text()')[0]+'.mp4'
detal_url='https://www.pearvideo.com/'+li.xpath('./div/a/@href')[0]
detal_res=requests.get(url=detal_url,headers=headers).text
# 5. 詳情頁視頻url在js中,不能用xpath和bs4解析,只能用正則
video_url=re.findall('srcUrl="(.*?)",vdoUrl',detal_res)[0]
dic={
'video_name':video_name,
'video_url':video_url
}
video_list.append(dic)
# 6. 創建解析下載視頻的函數
def get_video(dic):
url=dic['video_url']
name=dic['video_name']
video_data=requests.get(url=url,headers=headers).content
print("開始下載視頻:%s ....."%name)
with open(name,'wb') as f:
f.write(video_data)
# 7. 創建線程池并調用map方法
pools=Pool(4)
pools.map(get_video,video_list)
pools.close()
pools.join()
```
- 基礎部分
- 基礎知識
- 變量
- 數據類型
- 數字與布爾詳解
- 列表詳解list
- 字符串詳解str
- 元組詳解tup
- 字典詳解dict
- 集合詳解set
- 運算符
- 流程控制與循環
- 字符編碼
- 編的小程序
- 三級菜單
- 斐波那契數列
- 漢諾塔
- 文件操作
- 函數相關
- 函數基礎知識
- 函數進階知識
- lambda與map-filter-reduce
- 裝飾器知識
- 生成器和迭代器
- 琢磨的小技巧
- 通過operator函數將字符串轉換回運算符
- 目錄規范
- 異常處理
- 常用模塊
- 模塊和包相關概念
- 絕對導入&相對導入
- pip使用第三方源
- time&datetime模塊
- random隨機數模塊
- os 系統交互模塊
- sys系統模塊
- shutil復制&打包模塊
- json&pickle&shelve模塊
- xml序列化模塊
- configparser配置模塊
- hashlib哈希模塊
- subprocess命令模塊
- 日志logging模塊基礎
- 日志logging模塊進階
- 日志重復輸出問題
- re正則表達式模塊
- struct字節處理模塊
- abc抽象類與多態模塊
- requests與urllib網絡訪問模塊
- 參數控制模塊1-optparse-過時
- 參數控制模塊2-argparse
- pymysql數據庫模塊
- requests網絡請求模塊
- 面向對象
- 面向對象相關概念
- 類與對象基礎操作
- 繼承-派生和組合
- 抽象類與接口
- 多態與鴨子類型
- 封裝-隱藏與擴展性
- 綁定方法與非綁定方法
- 反射-字符串映射屬性
- 類相關內置方法
- 元類自定義及單例模式
- 面向對象的軟件開發
- 網絡-并發編程
- 網絡編程SOCKET
- socket簡介和入門
- socket代碼實例
- 粘包及粘包解決辦法
- 基于UDP協議的socket
- 文件傳輸程序實戰
- socketserver并發模塊
- 多進程multiprocessing模塊
- 進程理論知識
- 多進程與守護進程
- 鎖-信號量-事件
- 隊列與生產消費模型
- 進程池Pool
- 多線程threading模塊
- 進程理論和GIL鎖
- 死鎖與遞歸鎖
- 多線程與守護線程
- 定時器-條件-隊列
- 線程池與進程池(新方法)
- 協程與IO模型
- 協程理論知識
- gevent與greenlet模塊
- 5種網絡IO模型
- 非阻塞與多路復用IO實現
- 帶著目標學python
- Pycharm基本使用
- 爬蟲
- 案例-爬mzitu美女
- 案例-爬小說
- beautifulsoup解析模塊
- etree中的xpath解析模塊
- 反爬對抗-普通驗證碼
- 反爬對抗-session登錄
- 反爬對抗-代理池
- 爬蟲技巧-線程池
- 爬蟲對抗-圖片懶加載
- selenium瀏覽器模擬