Ctrl
+
D
一键收藏

Python爬虫抓取网页

本节讲解第一个 Python 爬虫实战案例:抓取您想要的网页,并将其保存至本地计算机。

首先我们对要编写的爬虫程序进行简单地分析,该程序可分为以下三个部分:
  • 拼接 url 地址
  • 发送请求
  • 将照片保存至本地

明确逻辑后,我们就可以正式编写爬虫程序了。

导入所需模块

本节内容使用 urllib 库来编写爬虫,下面导入程序所用模块:
from urllib import request
from urllib import parse

拼接URL地址

定义 URL 变量,拼接 url 地址。代码如下所示:
  1. url = 'http://www.baidu.com/s?wd={}'
  2. #想要搜索的内容
  3. word = input('请输入搜索内容:')
  4. params = parse.quote(word)
  5. full_url = url.format(params)

向URL发送请求

发送请求主要分为以下几个步骤:
  • 创建请求对象-Request
  • 获取响应对象-urlopen
  • 获取响应内容-read

代码如下所示:
  1. #重构请求头
  2. headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0'}
  3. #创建请求对应
  4. req = request.Request(url=full_url,headers=headers)
  5. #获取响应对象
  6. res = request.urlopen(req)
  7. #获取响应内容
  8. html = res.read().decode("utf-8")

保存为本地文件

把爬取的照片保存至本地,此处需要使用 Python 编程的文件 IO 操作,代码如下:
  1. filename = word + '.html'
  2. with open(filename,'w', encoding='utf-8') as f:
  3. f.write(html)
完整程序如下所示:
  1. from urllib import request,parse
  2. # 1.拼url地址
  3. url = 'http://www.baidu.com/s?wd={}'
  4. word = input('请输入搜索内容:')
  5. params = parse.quote(word)
  6. full_url = url.format(params)
  7. # 2.发请求保存到本地
  8. headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0'}
  9. req = request.Request(url=full_url,headers=headers)
  10. res = request.urlopen(req)
  11. html = res.read().decode('utf-8')
  12. # 3.保存文件至当前目录
  13. filename = word + '.html'
  14. with open(filename,'w',encoding='utf-8') as f:
  15. f.write(html)
尝试运行程序,并输入慧工作,确认搜索,然后您会在 Pycharm 当前的工作目录中找到“慧工作.html”文件。

函数式编程修改程序

Python 函数式编程可以让程序的思路更加清晰、易懂。接下来,使用函数编程的思想更改上面代码。

定义相应的函数,通过调用函数来执行爬虫程序。修改后的代码如下所示:
  1. from urllib import request
  2. from urllib import parse
  3.  
  4. # 拼接URL地址
  5. def get_url(word):
  6. url = 'http://www.baidu.com/s?{}'
  7. #此处使用urlencode()进行编码
  8. params = parse.urlencode({'wd':word})
  9. url = url.format(params)
  10. return url
  11.  
  12. # 发请求,保存本地文件
  13. def request_url(url,filename):
  14. headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0'}
  15. # 请求对象 + 响应对象 + 提取内容
  16. req = request.Request(url=url,headers=headers)
  17. res = request.urlopen(req)
  18. html = res.read().decode('utf-8')
  19. # 保存文件至本地
  20.   with open(filename,'w',encoding='utf-8') as f:
  21.     f.write(html)
  22.  
  23. # 主程序入口
  24. if __name__ == '__main__':
  25. word = input('请输入搜索内容:')
  26. url = get_url(word)
  27. filename = word + '.html'
  28. request_url(url,filename)
除了使用函数式编程外,您也可以使用面向对象的编程方法(本教程主要以该方法),在后续内容中会做相应介绍。
Ctrl
+
D
一键收藏