python爬虫之Requests库,及基本使用

一、Requests简介

urllib库参考:Python 爬虫之urllib库

Requests是用python语言基于urllib编写的,该模块主要用来发 送 HTTP 请求,requests 模块比 urllib 模块更简洁,是学习 python 爬虫的较好的http请求模块。

不是 python 的内置库,如果没有安装,可以安装先。

pip install requests

二、各种请求方式

requests里提供个各种请求方式,每次调用 requests 请求之后,会返回一个 response 对象,该对象包含了具体的响应信息。响应信息如下:

1、基本Get 请求

import requests
x = requests.get('http://www.baidu.com')
print(x.status_code)
print(x.reason)
print(x.apparent_encoding)
print(x.text)

执行结果:

200                                                                                                                                                                                                      
OK                                                                              
utf-8                                                                           
                                                                 
 .....

请求 json 数据文件,返回 json 内容:

通过params参数传递一个字典内容,从而直接构造url

import requests
params = {
    'name': 'zhangsan',
    'age': 100
}
x = requests.get('http://httpbin.org/get',params=params)
print(x.url)
print(x.json())

执行结果:

http://httpbin.org/get?name=zhangsan&age=100                                                                                                                                                             
{'args': {'age': '100', 'name': 'zhangsan'}, 'headers': {'...

抓取二进制数据

在上面的例子中,我们抓取的是网站的一个页面,实际上它返回的是一个 HTML 文档。如果想抓取图片、音频、视频等文件,需要用到content,这样获取的数据是二进制数据。

如抓取百度logo图片:

import requests
x = requests.get('https://www.baidu.com/img/flexible/logo/pc/result.png')
print(x.content)

执行结果:

b'x89PNGrnx1anx00x00x00rIHDRx00x00x00xcax00

得到的是一串二进制的乱码,如果想得到图片,直接将其保存到本地即可。

import requests
x = requests.get('https://www.baidu.com/img/flexible/logo/pc/result.png')
with open('baidulogo.png','wb') as f:
    f.write(x.content)

执行后,在本地目录,可以看到图片已经下载

添加headers

有些网页,必须需要headers才能访问。这时只需要将参赛传到 headers参数中即可,如下所示:

import requests
headers = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'
}
x = requests.get('https://baidu.com/', headers=headers)
print(x.text)

2、基本POST请求

在爬虫中,另外一个比较常见的请求方式就是 POST 请求,跟GET用法差不多。

post() 方法可以发送 POST 请求到指定 url,一般格式如下:

requests.post(url, data={key: value}, json={key: value}, args)

import requests
data = {'name': 'zhangsan', 'age': '100'}
x = requests.post("http://httpbin.org/post", data=data)
print(x.text)

执行结果:

{                                                                                                                                                                                                        
  "args": {},                                                                   
  "data": "",                                                                   
  "files": {},                                                                  
  "form": {                                                                     
    "age": "100",                                                                                                                                                                                        
    "name": "zhangsan"                                                          
  },                                                                                                                                                                                                     
  "headers": {                                                                                                                                                                                           
    "Accept": "*/*",                                                                                                                                                                                     
    "Accept-Encoding": "gzip, deflate",                                                                                                                                                                  
    "Content-Length": "21",
    ....

3、其他请求

其他请求可以自行测试,差不多用法。

r = requests.put('https://httpbin.org/put', data = {'key':'value'})
r = requests.delete('https://httpbin.org/delete')
r = requests.head('https://httpbin.org/get')
r = requests.options('https://httpbin.org/get')

三、requests 方法

requests 方法如下表:

import requests
# 发送请求
x = requests.request('get', 'https://httpbin.org/')
# 返回网页内容
print(x.status_code)

执行结果:

200

设置请求头:

# 导入 requests 包
import requests
 
kw = {'s':'python 教程'}
# 设置请求头
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
 
# params 接收一个字典或者字符串的查询参数,字典类型自动转换为url编码,不需要urlencode()
response = requests.get("https://httpbin.org", params = kw, headers = headers)
# 查看响应状态码
print (response.status_code)
# 查看响应头部字符编码
print (response.encoding)
# 查看完整url地址
print (response.url)
# 查看响应内容,response.text 返回的是Unicode格式的数据
print(response.text)

执行结果:

 200                                                                                                                                                                                                      
 utf-8                                                                           
 https://httpbin.org/?s=python+%E6%95%99%E7%A8%8B                                
                                                                  
                                                                 
                                                                                 
                                                                           
                                                           
     httpbin.org                                                  
      
        ....

四、requests其他高级用法

1、文件上传

实现方法和其他参数类似,也是构造一个字典然后通过files参数传递。

import requests
files= {"files":open("git.jpeg","rb")}
response = requests.post("http://httpbin.org/post",files=files)
print(response.text)

2、获取cookie

import requests
response = requests.get("http://www.baidu.com")
print(response.cookies)
for key,value in response.cookies.items():
    print(key+"="+value)

3、会话维持

cookie的一个作用就是可以用于模拟登陆,做会话维持。

import requests
s = requests.Session()
s.get("http://httpbin.org/cookies/set/number/123456")
response = s.get("http://httpbin.org/cookies")
print(response.text)

4、证书验证

限时特惠:本站每日持续更新海量各大内部创业教程,永久会员享受全站资源免费下载.www.heook.com
站长微信:wc764800

© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容