~~~
more h.txt
Accept:text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Charset:GBK,utf-8;q=0.7,*;q=0.3
Accept-Encoding:gzip,deflate,sdch
Accept-Language:zh-CN,zh;q=0.8
Cache-Control:max-age=0
Connection:keep-alive
Content-Length:120
Content-Type:application/x-www-form-urlencoded
Cookie:pgv_pvi=9261867008; YWP_VOLUME=0.5; ywadp10001467053656=1269550541; fpc10001467053656=Za9UHhw9|2yealx8Maa|fses10001467053656=|r4bo4J4Maa|Za9UHhw9|fvis10001467053656=|8MHs1Y0YsH|8MHs1Y0YsH|8MHs1Y0YsH|1|8MHs1Y0YsH|8MHs1Y0YsH; pgv_si=s1099326464; _csrf_token=ec1a05522f7a4f48a238dd5b3668f5fb; uliweb_session_id=bc7be2628c12e013abe230b78ca017b1
Host:uliweb.cpython.org
Origin:http://uliweb.cpython.org
Referer:http://uliweb.cpython.org/login
User-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/537.31 (KHTML, like Gecko) Chrome/26.0.1410.65 Safari/537.31
~~~
~~~
f = open("h.txt")
lines = f.readlines()
f.close()
headers = {}
for i in lines:
l = i.strip().split(':')
headers[l[0]]=l[1]
print headers
~~~
或者:
~~~
buf ="""Accept:text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8
Accept-Encoding:gzip,deflate,sdch
Accept-Language:zh-CN,zh;q=0.8
Cache-Control:max-age=0
Connection:keep-alive
Cookie:__utma=17226283.527444573.1390118279.1390118279.1390118279.1; __utmb=17226283.2.10.1390118279; __utmc=17226283; __utmz=17226283.1390118279.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); dc_tos=mzn24p; dc_session_id=-nw24qs|1; uuid_tt_dd=20996925328016542_20140119
Host:blog.csdn.net
If-Modified-Since:Sun, 19 Jan 2014 07:56:40 GMT
User-Agent:Mozilla/5.0 (X11; Linux i686) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.68 Safari/537.36"""
h = {}
for line in buf.split("\n"):
k,v = line.split(":",1)
h[k] = v
~~~
- Python爬蟲入門
- (1):綜述
- (2):爬蟲基礎了解
- (3):Urllib庫的基本使用
- (4):Urllib庫的高級用法
- (5):URLError異常處理
- (6):Cookie的使用
- (7):正則表達式
- (8):Beautiful Soup的用法
- Python爬蟲進階
- Python爬蟲進階一之爬蟲框架概述
- Python爬蟲進階二之PySpider框架安裝配置
- Python爬蟲進階三之Scrapy框架安裝配置
- Python爬蟲進階四之PySpider的用法
- Python爬蟲實戰
- Python爬蟲實戰(1):爬取糗事百科段子
- Python爬蟲實戰(2):百度貼吧帖子
- Python爬蟲實戰(3):計算大學本學期績點
- Python爬蟲實戰(4):模擬登錄淘寶并獲取所有訂單
- Python爬蟲實戰(5):抓取淘寶MM照片
- Python爬蟲實戰(6):抓取愛問知識人問題并保存至數據庫
- Python爬蟲利器
- Python爬蟲文章
- Python爬蟲(一)--豆瓣電影抓站小結(成功抓取Top100電影)
- Python爬蟲(二)--Coursera抓站小結
- Python爬蟲(三)-Socket網絡編程
- Python爬蟲(四)--多線程
- Python爬蟲(五)--多線程續(Queue)
- Python爬蟲(六)--Scrapy框架學習
- Python爬蟲(七)--Scrapy模擬登錄
- Python筆記
- python 知乎爬蟲
- Python 爬蟲之——模擬登陸
- python的urllib2 模塊解析
- 蜘蛛項目要用的數據庫操作
- gzip 壓縮格式的網站處理方法
- 通過瀏覽器的調試得出 headers轉換成字典
- Python登錄到weibo.com
- weibo v1.4.5 支持 RSA協議(模擬微博登錄)
- 搭建Scrapy爬蟲的開發環境
- 知乎精華回答的非專業大數據統計
- 基于PySpider的weibo.cn爬蟲
- Python-實現批量抓取妹子圖片
- Python庫
- python數據庫-mysql
- 圖片處理庫PIL
- Mac OS X安裝 Scrapy、PIL、BeautifulSoup
- 正則表達式 re模塊
- 郵件正則
- 正則匹配,但過濾某些字符串
- dict使用方法和快捷查找
- httplib2 庫的使用