一、Requests简介
urllib库参考:Python 爬虫之urllib库
Requests是用python语言基于urllib编写的,该模块主要用来发 送 HTTP 请求,requests 模块比 urllib 模块更简洁,是学习 python 爬虫的较好的http请求模块。
不是 python 的内置库,如果没有安装,可以安装先。
pip install requests
二、各种请求方式
requests里提供个各种请求方式,每次调用 requests 请求之后,会返回一个 response 对象,该对象包含了具体的响应信息。响应信息如下:
1、基本Get 请求
import requests
x = requests.get('http://www.baidu.com')
print(x.status_code)
print(x.reason)
print(x.apparent_encoding)
print(x.text)
执行结果:
200
OK
utf-8
.....
请求 json 数据文件,返回 json 内容:
通过params参数传递一个字典内容,从而直接构造url
import requests
params = {
'name': 'zhangsan',
'age': 100
}
x = requests.get('http://httpbin.org/get',params=params)
print(x.url)
print(x.json())
执行结果:
http://httpbin.org/get?name=zhangsan&age=100
{'args': {'age': '100', 'name': 'zhangsan'}, 'headers': {'...
抓取二进制数据
在上面的例子中,我们抓取的是网站的一个页面,实际上它返回的是一个 HTML 文档。如果想抓取图片、音频、视频等文件,需要用到content,这样获取的数据是二进制数据。
如抓取百度logo图片:
import requests
x = requests.get('https://www.baidu.com/img/flexible/logo/pc/result.png')
print(x.content)
执行结果:
b'x89PNGrnx1anx00x00x00rIHDRx00x00x00xcax00
得到的是一串二进制的乱码,如果想得到图片,直接将其保存到本地即可。
import requests
x = requests.get('https://www.baidu.com/img/flexible/logo/pc/result.png')
with open('baidulogo.png','wb') as f:
f.write(x.content)
执行后,在本地目录,可以看到图片已经下载
添加headers
有些网页,必须需要headers才能访问。这时只需要将参赛传到 headers参数中即可,如下所示:
import requests
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'
}
x = requests.get('https://baidu.com/', headers=headers)
print(x.text)
2、基本POST请求
在爬虫中,另外一个比较常见的请求方式就是 POST 请求,跟GET用法差不多。
post() 方法可以发送 POST 请求到指定 url,一般格式如下:
requests.post(url, data={key: value}, json={key: value}, args)
import requests
data = {'name': 'zhangsan', 'age': '100'}
x = requests.post("http://httpbin.org/post", data=data)
print(x.text)
执行结果:
{
"args": {},
"data": "",
"files": {},
"form": {
"age": "100",
"name": "zhangsan"
},
"headers": {
"Accept": "*/*",
"Accept-Encoding": "gzip, deflate",
"Content-Length": "21",
....
3、其他请求
其他请求可以自行测试,差不多用法。
r = requests.put('https://httpbin.org/put', data = {'key':'value'})
r = requests.delete('https://httpbin.org/delete')
r = requests.head('https://httpbin.org/get')
r = requests.options('https://httpbin.org/get')
三、requests 方法
requests 方法如下表:
import requests
# 发送请求
x = requests.request('get', 'https://httpbin.org/')
# 返回网页内容
print(x.status_code)
执行结果:
200
设置请求头:
# 导入 requests 包
import requests
kw = {'s':'python 教程'}
# 设置请求头
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
# params 接收一个字典或者字符串的查询参数,字典类型自动转换为url编码,不需要urlencode()
response = requests.get("https://httpbin.org", params = kw, headers = headers)
# 查看响应状态码
print (response.status_code)
# 查看响应头部字符编码
print (response.encoding)
# 查看完整url地址
print (response.url)
# 查看响应内容,response.text 返回的是Unicode格式的数据
print(response.text)
执行结果:
200
utf-8
https://httpbin.org/?s=python+%E6%95%99%E7%A8%8B
httpbin.org
....
四、requests其他高级用法
1、文件上传
实现方法和其他参数类似,也是构造一个字典然后通过files参数传递。
import requests
files= {"files":open("git.jpeg","rb")}
response = requests.post("http://httpbin.org/post",files=files)
print(response.text)
2、获取cookie
import requests
response = requests.get("http://www.baidu.com")
print(response.cookies)
for key,value in response.cookies.items():
print(key+"="+value)
3、会话维持
cookie的一个作用就是可以用于模拟登陆,做会话维持。
import requests
s = requests.Session()
s.get("http://httpbin.org/cookies/set/number/123456")
response = s.get("http://httpbin.org/cookies")
print(response.text)
4、证书验证
限时特惠:本站每日持续更新海量各大内部创业教程,永久会员享受全站资源免费下载.www.heook.com
站长微信:wc764800
暂无评论内容