纪念我的第一个爬虫程序,一共写了三个白天,其中有两个上午没有看,中途遇到了各种奇怪的问题,伴随着他们的解决,对于一些基本的操作也弄清楚了。果然,对于这些东西的最号的学习方式,就是在使用中学习,通过解决问题的方式来搞定这些知识。按需索取,才能更有针对性。

大体记录下整个过程。
--------------------------------------------------------------------------------
准备构思
出于对于python的热爱,想要尝试一些练手的项目,但是不论是看书,还是直接尝试别人的项目,到最后都会沦为不停地复制粘贴...最实际的就是自己来上手亲自写代码。思路都是一样的,但是具体的实现还得靠自己。
以前的复制粘贴给我的帮助也就是告诉了我大致的流程。
确定目标网址
目标网址是关键。我梦想中的爬虫是那种偏向于更智能的,直接给他一个想要获取的关键词,一步步的流程直接自己完成,可以自己给定范围,也可以直接爬取整个互联网或者更实际的就是整个百度上的内容,但是,目前就我而言,见到的爬虫,都是给定目标网址,通过目标页面上的内容进一步执行规定的操作,所以现在来看,我们在写爬虫之前,需要确定一个基准页面,这个是需要我们事先制定的。在考虑我们需要程序完成怎样的功能,获取页面文本还是相关链接内容还是其他的目的。
我这个程序想要获取的是《剑来》小说,把各个章节的内容爬去下载存储到文件里。
编程只是实现目的的工具。
所以重点是分析我们的需求。
获取小说目录页面是基本。这里有各个章节的链接,标题等等内容。这是我们需要的。
有了各个章节的链接,就需要进入其中获得各个章节的内容。
所以,我们需要获得页面内容,需要从中获得目标内容。
所以使用 urllib.request,re 库。
前者用来获得网页内容,后者获得目标信息。
headers
直接使用urllib.request的urlopen(),read()方法是会报以下错误:
raise HTTPError(req.get_full_url(), code, msg, hdrs, fp) HTTPError: HTTP Error 403: Forbidden
出现urllib2.HTTPError: HTTP Error 403: Forbidden错误是由于网站禁止爬虫,可以在请求加上头信息,伪装成浏览器。
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:55.0) Gecko/20100101 Firefox/55.0'}
request = url_req.Request(url, headers=headers)
response = url_req.urlopen(request, data=None, timeout=3)
html = response.read().decode('GBK')
注意:这里存在两个容易出问题的地方。
•编码:编码问题是使用爬虫中有时候会很头痛的问题,由于网页源代码编码格式不明确,所以这里尝试了许久。
使用chardet库的detect()方法可以检测字节字符串的编码。所以直接检测这里的html(先不要解码)。输出的是GB2312,但是在后面页面的爬取中,会出现提示有的字符的编码异常,所以这里采取了比其范围更广的中文字符集GBK,解决了这个问题。
•设置超时范围:由于频繁的获取网页内容,目标网站有时候会出现没有响应的问题。
(这个问题可以见我在CSDN上的提问:关于python爬虫程序中途停止的问题)
于是我采取了捕获 urlopen()的socket.timeout异常,并在出现异常的时候再循环访问,直到获得目标页面。
获得目标内容
这里使用的是正则表达式。re模块。这里的使用并不复杂。
首先需要一个模式字符串。以re.I指定忽略大小写,编译后的对象拥有本身匹配的方法,这里使用的是findall(),返回一个所有结果组成的列表。可以及时返回输出其内容,进而选择合适的部分进行处理。
python 正则表达式
通过查看相关的符号,这里使用(.+?)来实现匹配非贪婪模式(尽量少的)下任意无限字符,对之使用(),进而匹配括号内的模式。
文件写入
使用with open() as file:,进而可以处理文件。并且可以自动执行打开和关闭文件,更为便捷安全。
with open(findall_title[0] + '.txt', 'w+', encoding='utf-8') as open_file:
•这里也要注意编码的问题,指定utf-8。会避免一些问题。
•这里使用w+模式,追加写文件。
完整代码
# -*- coding: utf-8 -*-
"""
Created on Fri Aug 11 16:31:42 2017
@author: lart
"""
import urllib.request as url_req
import re, socket, time
def r_o_html(url):
print('r_o_html begin')
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:55.0) Gecko/20100101 Firefox/55.0'}
request = url_req.Request(url, headers=headers)
NET_STATUS = False
while not NET_STATUS:
try:
response = url_req.urlopen(request, data=None, timeout=3)
html = response.read().decode('GBK')
print('NET_STATUS is good')
print('r_o_html end')
return html
except socket.timeout:
print('NET_STATUS is not good')
NET_STATUS = False
def re_findall(re_string, operation, html):
print('re_findall begin')
pattern = re.compile(re_string, re.I)
if operation == 'findall':
result = pattern.findall(html)
else:
print('this operation is invalid')
exit(-1)
print('re_findall end')
return result
if __name__ == '__main__':
url_base = 'http://www.7kankan.la/book/1/'
html = r_o_html(url_base)
findall_title = re_findall(r'<title>(.+?)</title>', 'findall', html)
findall_chapter = re_findall(r'<dd class="col-md-3"><a href=[\',"](.+?)[\',"] title=[\',"](.+?)[\',"]>', 'findall', html)
with open(findall_title[0] + '.txt', 'w+', encoding='utf-8') as open_file:
print('article文件打开', findall_chapter)
for i in range(len(findall_chapter)):
print('第' + str(i) + '章')
open_file.write('\n\n\t' + findall_chapter[i][1] + '\n --------------------------------------------------------------------- \n')
url_chapter = url_base + findall_chapter[i][0]
html_chapter = r_o_html(url_chapter)
findall_article = re_findall(r' (.+?)<br />', 'findall', html_chapter)
findall_article_next = findall_chapter[i][0].replace('.html', '_2.html')
url_nextchapter = url_base + findall_article_next
html_nextchapter = r_o_html(url_nextchapter)
if html_nextchapter:
findall_article.extend(re_findall(r' (.+?)<br />', 'findall', html_nextchapter))
for text in findall_article:
open_file.write(text + '\n')
time.sleep(1)
print('文件写入完毕')
# python爬虫爬小说
# python
# 爬虫抓取小说
# 小说爬虫
# 编写Python脚本抓取网络小说来制作自己的阅读器
# Python实现的爬取小说爬虫功能示例
# Python制作爬虫采集小说
# 简单的抓取淘宝图片的Python爬虫
# 零基础写python爬虫之抓取糗事百科代码分享
# 实践Python的爬虫框架Scrapy来抓取豆瓣电影TOP250
# Python制作爬虫抓取美女图
# 编写Python爬虫抓取暴走漫画上gif图片的实例分享
# Python爬虫之网页图片抓取的方法
# python实现爬虫抓取小说功能示例【抓取金庸小说】
# 关键词
# 的是
# 这个问题
# 会报
# 中途
# 都是
# 这是
# 他们的
# 互联网
# 第一个
# 也要
# 给他
# 中有
# 其他的
# 并在
# 更有
# 问题是
# 可以直接
# 写了
# 正则表达式
相关文章:
如何在建站之星绑定自定义域名?
建站之星上传入口如何快速找到?
学生网站制作软件,一个12岁的学生写小说,应该去什么样的网站?
网站设计制作企业有哪些,抖音官网主页怎么设置?
宝塔建站助手安装配置与建站模板使用全流程解析
建站为何优先选择香港服务器?
php json中文编码为null的解决办法
免费ppt制作网站,有没有值得推荐的免费PPT网站?
如何通过老薛主机一键快速建站?
微课制作网站有哪些,微课网怎么进?
如何选择域名并搭建高效网站?
公司网站的制作公司,企业网站制作基本流程有哪些?
香港服务器网站推广:SEO优化与外贸独立站搭建策略
专业网站制作企业网站,如何制作一个企业网站,建设网站的基本步骤有哪些?
如何挑选优质建站一级代理提升网站排名?
外贸公司网站制作哪家好,maersk船公司官网?
娃派WAP自助建站:免费模板+移动优化,快速打造专业网站
如何快速完成中国万网建站详细流程?
如何通过万网虚拟主机快速搭建网站?
如何有效防御Web建站篡改攻击?
如何快速辨别茅台真假?关键步骤解析
如何设计高效校园网站?
网站制作报价单模板图片,小松挖机官方网站报价?
矢量图网站制作软件,用千图网的一张矢量图做公司app首页,该网站并未说明版权等问题,这样做算不算侵权?应该如何解决?
微信网站制作公司有哪些,民生银行办理公司开户怎么在微信网页上查询进度?
南阳网站制作公司推荐,小学电子版试卷去哪里找资源好?
如何在阿里云ECS服务器部署织梦CMS网站?
济南企业网站制作公司,济南社保单位网上缴费步骤?
如何配置IIS站点权限与局域网访问?
实例解析angularjs的filter过滤器
合肥制作网站的公司有哪些,合肥聚美网络科技有限公司介绍?
Python如何创建带属性的XML节点
h5网站制作工具有哪些,h5页面制作工具有哪些?
如何实现建站之星域名转发设置?
在线ppt制作网站有哪些,请推荐几个好的课件下载的网站?
安云自助建站系统如何快速提升SEO排名?
宝塔面板如何快速创建新站点?
制作网站的过程怎么写,用凡科建站如何制作自己的网站?
保定网站制作方案定制,保定招聘的渠道有哪些?找工作的人一般都去哪里看招聘信息?
活动邀请函制作网站有哪些,活动邀请函文案?
建站上传速度慢?如何优化加速网站加载效率?
建站之星展会模版如何一键下载生成?
Swift中swift中的switch 语句
成都响应式网站开发,dw怎么把手机适应页面变成网页?
如何快速生成专业多端适配建站电话?
如何配置支付宝与微信支付功能?
小建面朝正北,A点实际方位是否存在偏差?
c++怎么编写动态链接库dll_c++ __declspec(dllexport)导出与调用【方法】
股票网站制作软件,网上股票怎么开户?
实例解析Array和String方法
*请认真填写需求信息,我们会在24小时内与您取得联系。