前言

对于经常写爬虫的大家都知道,有些页面在登录之前是被禁止抓取的,比如知乎的话题页面就要求用户登录才能访问,而 “登录” 离不开 HTTP 中的 Cookie 技术。
登录原理
Cookie 的原理非常简单,因为 HTTP 是一种无状态的协议,因此为了在无状态的 HTTP 协议之上维护会话(session)状态,让服务器知道当前是和哪个客户在打交道,Cookie 技术出现了 ,Cookie 相当于是服务端分配给客户端的一个标识。
实战应用
用过知乎的都知道,只要提供用户名和密码以及验证码之后即可登录。当然,这只是我们眼中看到的现象。而背后隐藏的技术细节就需要借助浏览器来挖掘了。现在我们就用 Chrome 来查看当我们填完表单后,究竟发生了什么?
(如果已经登录的,先退出)首先进入知乎的登录页面 https://www.zhihu.com/#signin ,打开 Chrome 的开发者工具条(按 F12)先尝试输入一个错误的验证码观察浏览器是如何发送请求的。
从浏览器的请求可以发现几个关键的信息
_xsrf 是什么?如果你对CSRF(跨站请求伪造)攻击非常熟悉的话,那么你一定知道它的作用,xsrf是一串伪随机数,它是用于防止跨站请求伪造的。它一般存在网页的 form 表单标签中,为了证实这一点,可以在页面上搜索 “xsrf”,果然,_xsrf在一个隐藏的 input 标签中
摸清了浏览器登录时所需要的数据是如何获取之后,那么现在就可以开始写代码用 Python 模拟浏览器来登录了。登录时所依赖的两个第三方库是 requests 和 BeautifulSoup,先安装
pip install beautifulsoup4==4.5.3 pip install requests==2.13.0
http.cookiejar 模块可用于自动处理HTTP Cookie,LWPCookieJar 对象就是对 cookies 的封装,它支持把 cookies 保存到文件以及从文件中加载。
而 session 对象 提供了 Cookie 的持久化,连接池功能,可以通过 session 对象发送请求
首先从cookies.txt 文件中加载 cookie信息,因为首次运行还没有cookie,所有会出现 LoadError 异常。
from http import cookiejar
session = requests.session()
session.cookies = cookiejar.LWPCookieJar(filename='cookies.txt')
try:
session.cookies.load(ignore_discard=True)
except LoadError:
print("load cookies failed")
获取 xsrf
前面已经找到了 xsrf 所在的标签,,利用 BeatifulSoup 的 find 方法可以非常便捷的获取该值
def get_xsrf():
response = session.get("https://www.zhihu.com", headers=headers)
soup = BeautifulSoup(response.content, "html.parser")
xsrf = soup.find('input', attrs={"name": "_xsrf"}).get("value")
return xsrf
获取验证码
验证码是通过 /captcha.gif 接口返回的,这里我们把验证码图片下载保存到当前目录,由人工识别,当然你可以用第三方支持库来自动识别,比如 pytesser。
def get_captcha():
"""
把验证码图片保存到当前目录,手动识别验证码
:return:
"""
t = str(int(time.time() * 1000))
captcha_url = 'https://www.zhihu.com/captcha.gif?r=' + t + "&type=login"
r = session.get(captcha_url, headers=headers)
with open('captcha.jpg', 'wb') as f:
f.write(r.content)
captcha = input("验证码:")
return captcha
登录
一切参数准备就绪之后,就可以请求登录接口了。
def login(email, password):
login_url = 'https://www.zhihu.com/login/email'
data = {
'email': email,
'password': password,
'_xsrf': get_xsrf(),
"captcha": get_captcha(),
'remember_me': 'true'}
response = session.post(login_url, data=data, headers=headers)
login_code = response.json()
print(login_code['msg'])
for i in session.cookies:
print(i)
session.cookies.save()
请求成功后,session 会自动把 服务端的返回的cookie 信息填充到 session.cookies 对象中,下次请求时,客户端就可以自动携带这些cookie去访问那些需要登录的页面了。
auto_login.py 示例代码
# encoding: utf-8
# !/usr/bin/env python
"""
作者:liuzhijun
"""
import time
from http import cookiejar
import requests
from bs4 import BeautifulSoup
headers = {
"Host": "www.zhihu.com",
"Referer": "https://www.zhihu.com/",
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87'
}
# 使用登录cookie信息
session = requests.session()
session.cookies = cookiejar.LWPCookieJar(filename='cookies.txt')
try:
print(session.cookies)
session.cookies.load(ignore_discard=True)
except:
print("还没有cookie信息")
def get_xsrf():
response = session.get("https://www.zhihu.com", headers=headers)
soup = BeautifulSoup(response.content, "html.parser")
xsrf = soup.find('input', attrs={"name": "_xsrf"}).get("value")
return xsrf
def get_captcha():
"""
把验证码图片保存到当前目录,手动识别验证码
:return:
"""
t = str(int(time.time() * 1000))
captcha_url = 'https://www.zhihu.com/captcha.gif?r=' + t + "&type=login"
r = session.get(captcha_url, headers=headers)
with open('captcha.jpg', 'wb') as f:
f.write(r.content)
captcha = input("验证码:")
return captcha
def login(email, password):
login_url = 'https://www.zhihu.com/login/email'
data = {
'email': email,
'password': password,
'_xsrf': get_xsrf(),
"captcha": get_captcha(),
'remember_me': 'true'}
response = session.post(login_url, data=data, headers=headers)
login_code = response.json()
print(login_code['msg'])
for i in session.cookies:
print(i)
session.cookies.save()
if __name__ == '__main__':
email = "xxxx"
password = "xxxxx"
login(email, password)
github源码地址:https://github.com/lzjun567/crawler_html2pdf/blob/master/zhihu/auto_login.py
总结
以上就是关于Python爬虫之模拟知乎登录的全部内容,希望本文的内容对大家学习或者使用python能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对的支持。
# python爬虫模拟登录
# python
# 爬虫登录知乎
# 模拟登录知乎
# python爬虫-模拟微博登录功能
# python爬虫豆瓣网的模拟登录实现
# python爬虫 模拟登录人人网过程解析
# python爬虫框架scrapy实现模拟登录操作示例
# Python 网络爬虫--关于简单的模拟登录实例讲解
# Python爬虫利用cookie实现模拟登陆实例详解
# python模拟新浪微博登陆功能(新浪微博爬虫)
# python爬虫模拟浏览器访问-User-Agent过程解析
# 验证码
# 表单
# 还没有
# 就可以
# 第三方
# 服务端
# 客户端
# 加载
# 几个
# 是一种
# 随机数
# 大家都
# 首次
# 可以用
# 中有
# 它是
# 可以通过
# 就把
# 自动识别
# 还有一个
相关文章:
韩国网站服务器搭建指南:VPS选购、域名解析与DNS配置推荐
如何用5美元大硬盘VPS安全高效搭建个人网站?
如何用狗爹虚拟主机快速搭建网站?
建站VPS配置与SEO优化指南:关键词排名提升策略
电脑免费海报制作网站推荐,招聘海报哪个网站多?
建站之星如何实现网站加密操作?
小型网站制作HTML,*游戏网站怎么搭建?
XML的“混合内容”是什么 怎么用DTD或XSD定义
表情包在线制作网站免费,表情包怎么弄?
*服务器网站为何频现安全漏洞?
北京网站制作公司哪家好一点,北京租房网站有哪些?
Swift中switch语句区间和元组模式匹配
免费制作小说封面的网站有哪些,怎么接网站批量的封面单?
西安市网站制作公司,哪个相亲网站比较好?西安比较好的相亲网站?
建站之星如何修改网站生成路径?
名字制作网站免费,所有小说网站的名字?
如何选购建站域名与空间?自助平台全解析
公司门户网站制作公司有哪些,怎样使用wordpress制作一个企业网站?
如何在建站之星网店版论坛获取技术支持?
如何快速辨别茅台真假?关键步骤解析
logo在线制作免费网站在线制作好吗,DW网页制作时,如何在网页标题前加上logo?
装修招标网站设计制作流程,装修招标流程?
怎么制作网站设计模板图片,有电商商品详情页面的免费模板素材网站推荐吗?
车管所网站制作流程,交警当场开简易程序处罚决定书,在交警网站查询不到怎么办?
建站之星logo尺寸如何设置最合适?
实现虚拟支付需哪些建站技术支撑?
如何通过虚拟主机快速完成网站搭建?
免费制作海报的网站,哪位做平面的朋友告诉我用什么软件做海报比较好?ps还是cd还是ai这几个软件我都会些我是做网页的?
MySQL查询结果复制到新表的方法(更新、插入)
如何彻底卸载建站之星软件?
如何在Golang中使用replace替换模块_指定本地或远程路径
企业微网站怎么做,公司网站和公众号有什么区别?
如何获取上海专业网站定制建站电话?
如何通过多用户协作模板快速搭建高效企业网站?
如何快速搭建高效服务器建站系统?
如何登录建站主机?访问步骤全解析
网站广告牌制作方法,街上的广告牌,横幅,用PS还是其他软件做的?
南阳网站制作公司推荐,小学电子版试卷去哪里找资源好?
一键制作网站软件下载安装,一键自动采集网页文档制作步骤?
如何高效配置香港服务器实现快速建站?
平台云上自助建站如何快速打造专业网站?
如何在万网主机上快速搭建网站?
定制建站策划方案_专业建站与网站建设方案一站式指南
如何在阿里云虚拟主机上快速搭建个人网站?
香港服务器网站推广:SEO优化与外贸独立站搭建策略
企业网站制作公司网页,推荐几家专业的天津网站制作公司?
音乐网站服务器如何优化API响应速度?
如何快速生成ASP一键建站模板并优化安全性?
如何在万网开始建站?分步指南解析
香港服务器网站搭建教程-电商部署、配置优化与安全稳定指南
*请认真填写需求信息,我们会在24小时内与您取得联系。