2023年8月1日发(作者:)
Python⼊妖4-----Request库的基本使⽤什么是RequestsRequests是⽤python语⾔基于urllib编写的,采⽤的是Apache2 Licensed开源协议的HTTP库如果你看过上篇⽂章关于urllib库的使⽤,你会发现,其实urllib还是⾮常不⽅便的,⽽Requests它会⽐urllib更加⽅便,可以节约我们⼤量的⼯作。(⽤了requests之后,你基本都不愿意⽤urllib了)⼀句话,requests是python实现的最简单易⽤的HTTP库,建议爬⾍使⽤requests库。默认安装好python之后,是没有安装requests模块的,需要单独通过pip安装requests功能详解总体功能的⼀个演⽰import requestsresponse = ("")print(type(response))print(_code)print(type())print()print(s)print(t)print(("utf-8"))我们可以看出response使⽤起来确实⾮常⽅便,这⾥有个问题需要注意⼀下:很多情况下的⽹站如果直接会出现乱码的问题,所以这个使⽤t这样返回的数据格式其实是⼆进制格式,然后通过decode()转换为utf-8,这样就解决了通过直接返回显⽰乱码的问题.请求发出后,Requests 会基于 HTTP 头部对响应的编码作出有根据的推测。当你访问 之时,Requests 会使⽤其推测的⽂本编码。你可以找出 Requests 使⽤了什么编码,并且能够使⽤ ng 属性来改变它.如:response =("")ng="utf-8"print()各种请求⽅式requests⾥提供个各种请求⽅式import ("/post")("/put")("/delete")("/get")s("/get")请求基本GET请求import requestsresponse = ('/get')print()带参数的GET请求,例⼦1import requestsresponse = ("/get?name=zhaofan&age=23")print()如果我们想要在URL查询字符串传递数据,通常我们会通过/get?key=val⽅式传递。Requests模块允许使⽤params关键字传递参数,以⼀个字典来传递这些参数,例⼦如下:import requestsdata = { "name":"zhaofan", "age":22}response = ("/get",params=data)print()print(上述两种的结果是相同的,通过params参数传递⼀个字典内容,从⽽直接构造url注意:第⼆种⽅式通过字典的⽅式的时候,如果字典中的参数为None则不会添加到url上解析jsonimport requestsimport jsonresponse = ("/get")print(type())print(())print(())print(type(()))从结果可以看出requests⾥⾯集成的json其实就是执⾏了()⽅法,两者的结果是⼀样的获取⼆进制数据在上⾯提到了t,这样获取的数据是⼆进制数据,同样的这个⽅法也可以⽤于下载图⽚以及视频资源添加headers和前⾯我们将urllib模块的时候⼀样,我们同样可以定制headers的信息,如当我们直接通过requests请求知乎⽹站的时候,默认是⽆法访问的import requestsresponse =("")print()这样会得到如下的错误因为访问知乎需要头部信息,这个时候我们在⾕歌浏览器⾥输⼊chrome://version,就可以看到⽤户代理,将⽤户代理添加到头部信息import requestsheaders = { "User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"}response =("",headers=headers)print() 这样就可以正常的访问知乎了。基本POST请求通过在发送post请求时添加⼀个data参数,这个data参数可以通过字典构造成,这样对于发送post请求就⾮常⽅便import requestsdata = { "name":"zhaofan", "age":23}response = ("/post",data=data)print() 同样的在发送post请求的时候也可以和发送get请求⼀样通过headers参数传递⼀个字典类型的数据 响应 我们可以通过response获得很多属性,例⼦如下import requestsresponse = ("")print(type(_code),_code)print(type(s),s)print(type(s),s)print(type(),)print(type(y),y)结果如下:状态码判断Requests还附带了⼀个内置的状态码查询对象主要有如下内容:100: ('continue',),101: ('switching_protocols',),102: ('processing',),103: ('checkpoint',),122: ('uri_too_long', 'request_uri_too_long'),200: ('ok', 'okay', 'all_ok', 'all_okay', 'all_good', 'o/', '✓'),201: ('created',),202: ('accepted',),203: ('non_authoritative_info', 'non_authoritative_information'),204: ('no_content',),205: ('reset_content', 'reset'),206: ('partial_content', 'partial'),207: ('multi_status', 'multiple_status', 'multi_stati', 'multiple_stati'),208: ('already_reported',),226: ('im_used',),Redirection.300: ('multiple_choices',),301: ('moved_permanently', 'moved', 'o-'),302: ('found',),303: ('see_other', 'other'),304: ('not_modified',),305: ('use_proxy',),306: ('switch_proxy',),307: ('temporary_redirect', 'temporary_moved', 'temporary'),308: ('permanent_redirect','resume_incomplete', 'resume',), # These 2 to be removed in 3.0Client Error.400: ('bad_request', 'bad'),401: ('unauthorized',),402: ('payment_required', 'payment'),403: ('forbidden',),404: ('not_found', '-o-'),405: ('method_not_allowed', 'not_allowed'),406: ('not_acceptable',),407: ('proxy_authentication_required', 'proxy_auth', 'proxy_authentication'),408: ('request_timeout', 'timeout'),409: ('conflict',),410: ('gone',),411: ('length_required',),412: ('precondition_failed', 'precondition'),413: ('request_entity_too_large',),414: ('request_uri_too_large',),415: ('unsupported_media_type', 'unsupported_media', 'media_type'),416: ('requested_range_not_satisfiable', 'requested_range', 'range_not_satisfiable'),417: ('expectation_failed',),418: ('im_a_teapot', 'teapot', 'i_am_a_teapot'),421: ('misdirected_request',),422: ('unprocessable_entity', 'unprocessable'),423: ('locked',),424: ('failed_dependency', 'dependency'),425: ('unordered_collection', 'unordered'),426: ('upgrade_required', 'upgrade'),428: ('precondition_required', 'precondition'),429: ('too_many_requests', 'too_many'),431: ('header_fields_too_large', 'fields_too_large'),444: ('no_response', 'none'),449: ('retry_with', 'retry'),450: ('blocked_by_windows_parental_controls', 'parental_controls'),451: ('unavailable_for_legal_reasons', 'legal_reasons'),499: ('client_closed_request',),Server Error.500: ('internal_server_error', 'server_error', '/o', '✗'),501: ('not_implemented',),502: ('bad_gateway',),503: ('service_unavailable', 'unavailable'),504: ('gateway_timeout',),505: ('http_version_not_supported', 'http_version'),506: ('variant_also_negotiates',),507: ('insufficient_storage',),509: ('bandwidth_limit_exceeded', 'bandwidth'),510: ('not_extended',),511: ('network_authentication_required', 'network_auth', 'network_authentication'),通过下⾯例⼦测试:(不过通常还是通过状态码判断更⽅便)import requestsresponse= ("")if _code == : print("访问成功")项⽬实例:使⽤流程指定url基于requests模块发起请求获取响应对象中的数据值持久化存储1、需求:爬取搜狗指定词条搜索后的页⾯数据
import requestsimport os#指定搜索关键字word = input('enter a word you want to search:')#⾃定义请求头信息headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }#指定urlurl = '/web'#封装get请求参数param = { 'query':word, 'ie':'utf-8'}#发起请求response = (url=url,params=param)#获取响应数据page_text = th open('./','w',encoding='utf-8') as fp: (page_text)View Code2、需求:登录⾖瓣电影,爬取登录成功后的页⾯数据
import requestsimport osurl = '/login'#封装请求参数data = { "source": "movie", "redir": "/", "form_email": "", "form_password": "bobo@", "login": "登录",}#⾃定义请求头信息headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }response = (url=url,data=data)page_text = th open('./','w',encoding='utf-8') as fp: (page_text)View Code
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport tif __name__ == "__main__": #指定ajax-get请求的url(通过抓包进⾏获取) url = '/j/chart/top_list?' #定制请求头信息,相关的头信息必须封装在字典结构中 headers = { #定制请求头中的User-Agent参数,当然也可以定制请求头中其他的参数 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36', } #定制get请求携带的参数(从抓包⼯具中获取) param = { 'type':'5', 'interval_id':'100:90', 'action':'', 'start':'0', 'limit':'20' } #发起get请求,获取响应对象 response = (url=url,headers=headers,params=param) #获取响应内容:响应内容为json串 print()View Code
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport tif __name__ == "__main__": #指定ajax-post请求的url(通过抓包进⾏获取) url = '/kfccda/ashx/?op=keyword' #定制请求头信息,相关的头信息必须封装在字典结构中 headers = { #定制请求头中的User-Agent参数,当然也可以定制请求头中其他的参数 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36', } #定制post请求携带的参数(从抓包⼯具中获取) data = { 'cname':'', 'pid':'', 'keyword':'北京', 'pageIndex': '1', 'pageSize': '10' } #发起post请求,获取响应对象 response = (url=url,headers=headers,data=data) #获取响应内容:响应内容为json串 print()View Code
5、需求:爬取搜狗知乎指定词条指定页码下的页⾯数据
import requestsimport os#指定搜索关键字word = input('enter a word you want to search:')#指定起始页码start_page = int(input('enter start page num:'))end_page = int(input('enter end page num:'))#⾃定义请求头信息headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }#指定urlurl = '/zhihu'#创建⽂件夹if not ('./sougou'): ('./sougou')for page in range(start_page,end_page+1): #封装get请求参数 params = { 'query':word, 'ie':'utf-8', 'page':str(page) } #发起post请求,获取响应对象 response = (url=url,params=params) #获取页⾯数据 page_text = fileName = word+'_'+str(page)+'.html' filePath = './sougou/'+fileName with open(filePath,'w',encoding='utf-8') as fp: (page_text) print('爬取'+str(page)+'页结束')View Code
requests⾼级⽤法⽂件上传实现⽅法和其他参数类似,也是构造⼀个字典然后通过files参数传递import requestsfiles= {"files":open("","rb")}response = ("/post",files=files)print() 结果如下:获取cookieimport requestsresponse = ("")print(s)for key,value in (): print(key+"="+value) 会话维持 cookie的⼀个作⽤就是可以⽤于模拟登陆,做会话维持import requestss = n()("/cookies/set/nufffmber/123456")response = ("/cookies")print() 这是正确的写法,⽽下⾯的写法则是错误的import ("/cookies/set/number/123456")response = ("/cookies")print()因为这种⽅式是两次requests请求之间是独⽴的,⽽第⼀次则是通过创建⼀个session对象,两次请求都通过这个对象访问证书验证现在的很多⽹站都是https的⽅式访问,所以这个时候就涉及到证书的问题import requestsresponse = ("https:/")print(_code)为了避免这种情况的发⽣可以通过 verify=False但是这样是可以访问到页⾯,但是会提⽰:解决⽅法为:import requestsfrom es import e_warnings()response = ("",verify=False)print(_code)这样就不会提⽰警告信息,当然也可以通过cert参数放⼊证书路径
代理设置import requestsproxies= { "http":"127.0.0.1:9999", "https":"127.0.0.1:8888"}response = ("",proxies=proxies)print()超时设置通过timeout参数可以设置超时的时间认证设置如果碰到需要认证的⽹站可以通过模块实现import requestsfrom import HTTPBasicAuthresponse = ("120.27.34.24:9001/",auth=HTTPBasicAuth("user","123"))print(_code)当然这⾥还有⼀种⽅式import requestsresponse = ("120.27.34.24:9001/",auth=("user","123"))print(_code)异常处理通过下⾯的例⼦进⾏简单的演⽰import requestsfrom ions import ReadTimeout,ConnectionError,RequestExceptiontry: response = ("/get",timeout=0.1) print(_code)except ReadTimeout: print("timeout")except ConnectionError: print("connection Error")except RequestException: print("error") 其实最后测试可以发现,⾸先被捕捉的异常是timeout,当把⽹络断掉的haul就会捕捉到ConnectionError,如果前⾯异常都没有捕捉到,最后也可以通过RequestExctption捕捉到
项⽬实例:cookie和代理实例⼀、基于requests模块的cookie操作引⾔:有些时候,我们在使⽤爬⾍程序去爬取⼀些⽤户相关信息的数据(爬取张三“⼈⼈⽹”个⼈主页数据)时,如果使⽤之前requests模块常规操作时,往往达不到我们想要的⽬的,例如:#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsif __name__ == "__main__": #张三⼈⼈⽹个⼈信息页⾯的url url = '/289676607/profile' #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } #发送请求,获取响应对象 response = (url=url,headers=headers) #将响应内容写⼊⽂件 with open('./','w',encoding='utf-8') as fp: ()
结果发现,写⼊到⽂件中的数据,不是张三个⼈页⾯的数据,⽽是⼈⼈⽹登陆的⾸页⾯,why?⾸先我们来回顾下cookie的相关概念及作⽤:cookie概念:当⽤户通过浏览器⾸次访问⼀个域名时,访问的 web服务器会给客户端发送数据,以保持web服务器与客户端之间的状态保持,这些数据就是cookie。cookie作⽤:我们在浏览器中,经常涉及到数据的交换,⽐如你登录邮箱,登录⼀个页⾯。我们经常会在此时设置30天内记住我,或者⾃动登录选项。那么它们是怎么记录信息的呢,答案就是今天的主⾓cookie了,Cookie是由HTTP服务器设置的,保存在浏览器中,但HTTP协议是⼀种⽆状态协议,在数据交换完毕后,服务器端和客户端的链接就会关闭,每次交换数据都需要建⽴新的链接。就像我们去超市买东西,没有积分卡的情况下,我们买完东西之后,超市没有我们的任何消费信息,但我们办了积分卡之后,超市就有了我们的消费信息。cookie就像是积分卡,可以保存积分,商品就是我们的信息,超市的系统就像服务器后台,http协议就是交易的过程。经过cookie的相关介绍,其实你已经知道了为什么上述案例中爬取到的不是张三个⼈信息页,⽽是登录页⾯。那应该如何抓取到张三的个⼈信息页呢?思路: 1、我们需要使⽤爬⾍程序对⼈⼈⽹的登录时的请求进⾏⼀次抓取,获取请求中的cookie数据。 2、在使⽤个⼈信息页的url进⾏请求时,该请求需要携带 1 中的cookie,只有携带了cookie后,服务器才可识别这次请求的⽤户信息,⽅可响应回指定的⽤户信息页数据。#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsif __name__ == "__main__": #登录请求的url(通过抓包⼯具获取) post_url = '/ajaxLogin/login?1=1&uniqueTimestamp=2' #创建⼀个session对象,该对象会⾃动将请求中的cookie进⾏存储和携带 session = n() #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } formdata = { 'email': '', 'icode': '', 'origURL': '/home', 'domain': '', 'key_id': '1', 'captcha_type': 'web_login', 'password': '7b456e6c3eb6615b2e122a2942ef3845da1f91e3de075179079a3b84952508e4', 'rkey': '44fd96c219c593f3c9612360c80310a3', 'f': 'https%3A%2F%%2Flink%3Furl%3Dm7m_NSUp5Ri_ZrK5eNIpn_dMs48UAcvT-N_kmysWgYW%26wd%3D%26eqid%3Dba95daf5000065ce000000035b120219', } #使⽤session发送请求,⽬的是为了将session保存该次请求中的cookie (url=post_url,data=formdata,headers=headers) get_url = '/960481378/profile' #再次使⽤session进⾏请求的发送,该次请求中已经携带了cookie response = (url=get_url,headers=headers) #设置响应内容的编码格式 ng = 'utf-8' #将响应内容写⼊⽂件 with open('./','w') as fp: ()
⼆、基于requests模块的代理操作什么是代理代理就是第三⽅代替本体处理相关事务。例如:⽣活中的代理:代购,中介,微商......爬⾍中为什么需要使⽤代理⼀些⽹站会有相应的反爬⾍措施,例如很多⽹站会检测某⼀段时间某个IP的访问次数,如果访问频率太快以⾄于看起来不像正常访客,它可能就会会禁⽌这个IP的访问。所以我们需要设置⼀些代理IP,每隔⼀段时间换⼀个代理IP,就算IP被禁⽌,依然可以换个IP继续爬取。代理的分类:正向代理:代理客户端获取数据。正向代理是为了保护客户端防⽌被追究责任。反向代理:代理服务器提供数据。反向代理是为了保护服务器或负责负载均衡。免费代理ip提供⽹站西祠代理快代理代码:#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport randomif __name__ == "__main__": #不同浏览器的UA header_list = [ # 遨游 {"user-agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)"}, # ⽕狐 {"user-agent": "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"}, # ⾕歌 { "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"} ] #不同的代理IP proxy_list = [ {"http": "112.115.57.20:3128"}, {'http': '121.41.171.223:3128'} ] #随机获取UA和代理IP header = (header_list) proxy = (proxy_list) url = '/s?ie=UTF-8&wd=ip' #参数3:设置代理 response = (url=url,headers=header,proxies=proxy) ng = 'utf-8'
with open('', 'wb') as fp: (t) #切换成原来的IP (url, proxies={"http": ""})
2023年8月1日发(作者:)
Python⼊妖4-----Request库的基本使⽤什么是RequestsRequests是⽤python语⾔基于urllib编写的,采⽤的是Apache2 Licensed开源协议的HTTP库如果你看过上篇⽂章关于urllib库的使⽤,你会发现,其实urllib还是⾮常不⽅便的,⽽Requests它会⽐urllib更加⽅便,可以节约我们⼤量的⼯作。(⽤了requests之后,你基本都不愿意⽤urllib了)⼀句话,requests是python实现的最简单易⽤的HTTP库,建议爬⾍使⽤requests库。默认安装好python之后,是没有安装requests模块的,需要单独通过pip安装requests功能详解总体功能的⼀个演⽰import requestsresponse = ("")print(type(response))print(_code)print(type())print()print(s)print(t)print(("utf-8"))我们可以看出response使⽤起来确实⾮常⽅便,这⾥有个问题需要注意⼀下:很多情况下的⽹站如果直接会出现乱码的问题,所以这个使⽤t这样返回的数据格式其实是⼆进制格式,然后通过decode()转换为utf-8,这样就解决了通过直接返回显⽰乱码的问题.请求发出后,Requests 会基于 HTTP 头部对响应的编码作出有根据的推测。当你访问 之时,Requests 会使⽤其推测的⽂本编码。你可以找出 Requests 使⽤了什么编码,并且能够使⽤ ng 属性来改变它.如:response =("")ng="utf-8"print()各种请求⽅式requests⾥提供个各种请求⽅式import ("/post")("/put")("/delete")("/get")s("/get")请求基本GET请求import requestsresponse = ('/get')print()带参数的GET请求,例⼦1import requestsresponse = ("/get?name=zhaofan&age=23")print()如果我们想要在URL查询字符串传递数据,通常我们会通过/get?key=val⽅式传递。Requests模块允许使⽤params关键字传递参数,以⼀个字典来传递这些参数,例⼦如下:import requestsdata = { "name":"zhaofan", "age":22}response = ("/get",params=data)print()print(上述两种的结果是相同的,通过params参数传递⼀个字典内容,从⽽直接构造url注意:第⼆种⽅式通过字典的⽅式的时候,如果字典中的参数为None则不会添加到url上解析jsonimport requestsimport jsonresponse = ("/get")print(type())print(())print(())print(type(()))从结果可以看出requests⾥⾯集成的json其实就是执⾏了()⽅法,两者的结果是⼀样的获取⼆进制数据在上⾯提到了t,这样获取的数据是⼆进制数据,同样的这个⽅法也可以⽤于下载图⽚以及视频资源添加headers和前⾯我们将urllib模块的时候⼀样,我们同样可以定制headers的信息,如当我们直接通过requests请求知乎⽹站的时候,默认是⽆法访问的import requestsresponse =("")print()这样会得到如下的错误因为访问知乎需要头部信息,这个时候我们在⾕歌浏览器⾥输⼊chrome://version,就可以看到⽤户代理,将⽤户代理添加到头部信息import requestsheaders = { "User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"}response =("",headers=headers)print() 这样就可以正常的访问知乎了。基本POST请求通过在发送post请求时添加⼀个data参数,这个data参数可以通过字典构造成,这样对于发送post请求就⾮常⽅便import requestsdata = { "name":"zhaofan", "age":23}response = ("/post",data=data)print() 同样的在发送post请求的时候也可以和发送get请求⼀样通过headers参数传递⼀个字典类型的数据 响应 我们可以通过response获得很多属性,例⼦如下import requestsresponse = ("")print(type(_code),_code)print(type(s),s)print(type(s),s)print(type(),)print(type(y),y)结果如下:状态码判断Requests还附带了⼀个内置的状态码查询对象主要有如下内容:100: ('continue',),101: ('switching_protocols',),102: ('processing',),103: ('checkpoint',),122: ('uri_too_long', 'request_uri_too_long'),200: ('ok', 'okay', 'all_ok', 'all_okay', 'all_good', 'o/', '✓'),201: ('created',),202: ('accepted',),203: ('non_authoritative_info', 'non_authoritative_information'),204: ('no_content',),205: ('reset_content', 'reset'),206: ('partial_content', 'partial'),207: ('multi_status', 'multiple_status', 'multi_stati', 'multiple_stati'),208: ('already_reported',),226: ('im_used',),Redirection.300: ('multiple_choices',),301: ('moved_permanently', 'moved', 'o-'),302: ('found',),303: ('see_other', 'other'),304: ('not_modified',),305: ('use_proxy',),306: ('switch_proxy',),307: ('temporary_redirect', 'temporary_moved', 'temporary'),308: ('permanent_redirect','resume_incomplete', 'resume',), # These 2 to be removed in 3.0Client Error.400: ('bad_request', 'bad'),401: ('unauthorized',),402: ('payment_required', 'payment'),403: ('forbidden',),404: ('not_found', '-o-'),405: ('method_not_allowed', 'not_allowed'),406: ('not_acceptable',),407: ('proxy_authentication_required', 'proxy_auth', 'proxy_authentication'),408: ('request_timeout', 'timeout'),409: ('conflict',),410: ('gone',),411: ('length_required',),412: ('precondition_failed', 'precondition'),413: ('request_entity_too_large',),414: ('request_uri_too_large',),415: ('unsupported_media_type', 'unsupported_media', 'media_type'),416: ('requested_range_not_satisfiable', 'requested_range', 'range_not_satisfiable'),417: ('expectation_failed',),418: ('im_a_teapot', 'teapot', 'i_am_a_teapot'),421: ('misdirected_request',),422: ('unprocessable_entity', 'unprocessable'),423: ('locked',),424: ('failed_dependency', 'dependency'),425: ('unordered_collection', 'unordered'),426: ('upgrade_required', 'upgrade'),428: ('precondition_required', 'precondition'),429: ('too_many_requests', 'too_many'),431: ('header_fields_too_large', 'fields_too_large'),444: ('no_response', 'none'),449: ('retry_with', 'retry'),450: ('blocked_by_windows_parental_controls', 'parental_controls'),451: ('unavailable_for_legal_reasons', 'legal_reasons'),499: ('client_closed_request',),Server Error.500: ('internal_server_error', 'server_error', '/o', '✗'),501: ('not_implemented',),502: ('bad_gateway',),503: ('service_unavailable', 'unavailable'),504: ('gateway_timeout',),505: ('http_version_not_supported', 'http_version'),506: ('variant_also_negotiates',),507: ('insufficient_storage',),509: ('bandwidth_limit_exceeded', 'bandwidth'),510: ('not_extended',),511: ('network_authentication_required', 'network_auth', 'network_authentication'),通过下⾯例⼦测试:(不过通常还是通过状态码判断更⽅便)import requestsresponse= ("")if _code == : print("访问成功")项⽬实例:使⽤流程指定url基于requests模块发起请求获取响应对象中的数据值持久化存储1、需求:爬取搜狗指定词条搜索后的页⾯数据
import requestsimport os#指定搜索关键字word = input('enter a word you want to search:')#⾃定义请求头信息headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }#指定urlurl = '/web'#封装get请求参数param = { 'query':word, 'ie':'utf-8'}#发起请求response = (url=url,params=param)#获取响应数据page_text = th open('./','w',encoding='utf-8') as fp: (page_text)View Code2、需求:登录⾖瓣电影,爬取登录成功后的页⾯数据
import requestsimport osurl = '/login'#封装请求参数data = { "source": "movie", "redir": "/", "form_email": "", "form_password": "bobo@", "login": "登录",}#⾃定义请求头信息headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }response = (url=url,data=data)page_text = th open('./','w',encoding='utf-8') as fp: (page_text)View Code
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport tif __name__ == "__main__": #指定ajax-get请求的url(通过抓包进⾏获取) url = '/j/chart/top_list?' #定制请求头信息,相关的头信息必须封装在字典结构中 headers = { #定制请求头中的User-Agent参数,当然也可以定制请求头中其他的参数 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36', } #定制get请求携带的参数(从抓包⼯具中获取) param = { 'type':'5', 'interval_id':'100:90', 'action':'', 'start':'0', 'limit':'20' } #发起get请求,获取响应对象 response = (url=url,headers=headers,params=param) #获取响应内容:响应内容为json串 print()View Code
#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport tif __name__ == "__main__": #指定ajax-post请求的url(通过抓包进⾏获取) url = '/kfccda/ashx/?op=keyword' #定制请求头信息,相关的头信息必须封装在字典结构中 headers = { #定制请求头中的User-Agent参数,当然也可以定制请求头中其他的参数 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36', } #定制post请求携带的参数(从抓包⼯具中获取) data = { 'cname':'', 'pid':'', 'keyword':'北京', 'pageIndex': '1', 'pageSize': '10' } #发起post请求,获取响应对象 response = (url=url,headers=headers,data=data) #获取响应内容:响应内容为json串 print()View Code
5、需求:爬取搜狗知乎指定词条指定页码下的页⾯数据
import requestsimport os#指定搜索关键字word = input('enter a word you want to search:')#指定起始页码start_page = int(input('enter start page num:'))end_page = int(input('enter end page num:'))#⾃定义请求头信息headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', }#指定urlurl = '/zhihu'#创建⽂件夹if not ('./sougou'): ('./sougou')for page in range(start_page,end_page+1): #封装get请求参数 params = { 'query':word, 'ie':'utf-8', 'page':str(page) } #发起post请求,获取响应对象 response = (url=url,params=params) #获取页⾯数据 page_text = fileName = word+'_'+str(page)+'.html' filePath = './sougou/'+fileName with open(filePath,'w',encoding='utf-8') as fp: (page_text) print('爬取'+str(page)+'页结束')View Code
requests⾼级⽤法⽂件上传实现⽅法和其他参数类似,也是构造⼀个字典然后通过files参数传递import requestsfiles= {"files":open("","rb")}response = ("/post",files=files)print() 结果如下:获取cookieimport requestsresponse = ("")print(s)for key,value in (): print(key+"="+value) 会话维持 cookie的⼀个作⽤就是可以⽤于模拟登陆,做会话维持import requestss = n()("/cookies/set/nufffmber/123456")response = ("/cookies")print() 这是正确的写法,⽽下⾯的写法则是错误的import ("/cookies/set/number/123456")response = ("/cookies")print()因为这种⽅式是两次requests请求之间是独⽴的,⽽第⼀次则是通过创建⼀个session对象,两次请求都通过这个对象访问证书验证现在的很多⽹站都是https的⽅式访问,所以这个时候就涉及到证书的问题import requestsresponse = ("https:/")print(_code)为了避免这种情况的发⽣可以通过 verify=False但是这样是可以访问到页⾯,但是会提⽰:解决⽅法为:import requestsfrom es import e_warnings()response = ("",verify=False)print(_code)这样就不会提⽰警告信息,当然也可以通过cert参数放⼊证书路径
代理设置import requestsproxies= { "http":"127.0.0.1:9999", "https":"127.0.0.1:8888"}response = ("",proxies=proxies)print()超时设置通过timeout参数可以设置超时的时间认证设置如果碰到需要认证的⽹站可以通过模块实现import requestsfrom import HTTPBasicAuthresponse = ("120.27.34.24:9001/",auth=HTTPBasicAuth("user","123"))print(_code)当然这⾥还有⼀种⽅式import requestsresponse = ("120.27.34.24:9001/",auth=("user","123"))print(_code)异常处理通过下⾯的例⼦进⾏简单的演⽰import requestsfrom ions import ReadTimeout,ConnectionError,RequestExceptiontry: response = ("/get",timeout=0.1) print(_code)except ReadTimeout: print("timeout")except ConnectionError: print("connection Error")except RequestException: print("error") 其实最后测试可以发现,⾸先被捕捉的异常是timeout,当把⽹络断掉的haul就会捕捉到ConnectionError,如果前⾯异常都没有捕捉到,最后也可以通过RequestExctption捕捉到
项⽬实例:cookie和代理实例⼀、基于requests模块的cookie操作引⾔:有些时候,我们在使⽤爬⾍程序去爬取⼀些⽤户相关信息的数据(爬取张三“⼈⼈⽹”个⼈主页数据)时,如果使⽤之前requests模块常规操作时,往往达不到我们想要的⽬的,例如:#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsif __name__ == "__main__": #张三⼈⼈⽹个⼈信息页⾯的url url = '/289676607/profile' #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } #发送请求,获取响应对象 response = (url=url,headers=headers) #将响应内容写⼊⽂件 with open('./','w',encoding='utf-8') as fp: ()
结果发现,写⼊到⽂件中的数据,不是张三个⼈页⾯的数据,⽽是⼈⼈⽹登陆的⾸页⾯,why?⾸先我们来回顾下cookie的相关概念及作⽤:cookie概念:当⽤户通过浏览器⾸次访问⼀个域名时,访问的 web服务器会给客户端发送数据,以保持web服务器与客户端之间的状态保持,这些数据就是cookie。cookie作⽤:我们在浏览器中,经常涉及到数据的交换,⽐如你登录邮箱,登录⼀个页⾯。我们经常会在此时设置30天内记住我,或者⾃动登录选项。那么它们是怎么记录信息的呢,答案就是今天的主⾓cookie了,Cookie是由HTTP服务器设置的,保存在浏览器中,但HTTP协议是⼀种⽆状态协议,在数据交换完毕后,服务器端和客户端的链接就会关闭,每次交换数据都需要建⽴新的链接。就像我们去超市买东西,没有积分卡的情况下,我们买完东西之后,超市没有我们的任何消费信息,但我们办了积分卡之后,超市就有了我们的消费信息。cookie就像是积分卡,可以保存积分,商品就是我们的信息,超市的系统就像服务器后台,http协议就是交易的过程。经过cookie的相关介绍,其实你已经知道了为什么上述案例中爬取到的不是张三个⼈信息页,⽽是登录页⾯。那应该如何抓取到张三的个⼈信息页呢?思路: 1、我们需要使⽤爬⾍程序对⼈⼈⽹的登录时的请求进⾏⼀次抓取,获取请求中的cookie数据。 2、在使⽤个⼈信息页的url进⾏请求时,该请求需要携带 1 中的cookie,只有携带了cookie后,服务器才可识别这次请求的⽤户信息,⽅可响应回指定的⽤户信息页数据。#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsif __name__ == "__main__": #登录请求的url(通过抓包⼯具获取) post_url = '/ajaxLogin/login?1=1&uniqueTimestamp=2' #创建⼀个session对象,该对象会⾃动将请求中的cookie进⾏存储和携带 session = n() #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } formdata = { 'email': '', 'icode': '', 'origURL': '/home', 'domain': '', 'key_id': '1', 'captcha_type': 'web_login', 'password': '7b456e6c3eb6615b2e122a2942ef3845da1f91e3de075179079a3b84952508e4', 'rkey': '44fd96c219c593f3c9612360c80310a3', 'f': 'https%3A%2F%%2Flink%3Furl%3Dm7m_NSUp5Ri_ZrK5eNIpn_dMs48UAcvT-N_kmysWgYW%26wd%3D%26eqid%3Dba95daf5000065ce000000035b120219', } #使⽤session发送请求,⽬的是为了将session保存该次请求中的cookie (url=post_url,data=formdata,headers=headers) get_url = '/960481378/profile' #再次使⽤session进⾏请求的发送,该次请求中已经携带了cookie response = (url=get_url,headers=headers) #设置响应内容的编码格式 ng = 'utf-8' #将响应内容写⼊⽂件 with open('./','w') as fp: ()
⼆、基于requests模块的代理操作什么是代理代理就是第三⽅代替本体处理相关事务。例如:⽣活中的代理:代购,中介,微商......爬⾍中为什么需要使⽤代理⼀些⽹站会有相应的反爬⾍措施,例如很多⽹站会检测某⼀段时间某个IP的访问次数,如果访问频率太快以⾄于看起来不像正常访客,它可能就会会禁⽌这个IP的访问。所以我们需要设置⼀些代理IP,每隔⼀段时间换⼀个代理IP,就算IP被禁⽌,依然可以换个IP继续爬取。代理的分类:正向代理:代理客户端获取数据。正向代理是为了保护客户端防⽌被追究责任。反向代理:代理服务器提供数据。反向代理是为了保护服务器或负责负载均衡。免费代理ip提供⽹站西祠代理快代理代码:#!/usr/bin/env python# -*- coding:utf-8 -*-import requestsimport randomif __name__ == "__main__": #不同浏览器的UA header_list = [ # 遨游 {"user-agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)"}, # ⽕狐 {"user-agent": "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"}, # ⾕歌 { "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"} ] #不同的代理IP proxy_list = [ {"http": "112.115.57.20:3128"}, {'http': '121.41.171.223:3128'} ] #随机获取UA和代理IP header = (header_list) proxy = (proxy_list) url = '/s?ie=UTF-8&wd=ip' #参数3:设置代理 response = (url=url,headers=header,proxies=proxy) ng = 'utf-8'
with open('', 'wb') as fp: (t) #切换成原来的IP (url, proxies={"http": ""})
发布评论