本章我们将学习网络爬虫,其中包括学习Python中的BeautifulSoup库,它用于从网站中提取数据。
本章包含以下主题。
- 什么是网络爬虫。
- 数据提取。
- 从维基百科网站提取信息。
1 什么是网络爬虫
网络爬虫是指从网站提取数据的技术,该技术可以将非结构化数据转换为结构化数据。
网络爬虫的用途是从网站提取数据,提取的数据可以存储到本地文件并保存在系统中,也可以将其以表格的形式存储到数据库中。网络爬虫使用HTTP或Web浏览器直接访问万维网(WWW)。网络爬虫或机器人抓取网页的过程是一个自动化流程。
抓取网页的过程分为获取网页、提取数据。Web抓取程序可以获取网页,它是网络爬虫的必需组件。在获取网页后,就需要提取网页数据了。我们可以搜索、解析,并将提取的数据保存到表格中,然后重新整理格式。
2 数据提取
本节我们学习数据提取。我们可以使用Python的BeautifulSoup库进行数据提取。这里还需要用到Python库的Requests模块。
运行以下命令以安装Requests和BeautifulSoup库。
$ pip3 install requests
$ pip3 install beautifulsoup4
2.1 Requests库
使用Requests库可以易懂的格式在Python脚本中使用HTTP,这里使用Python中的Requests库获取网页。Requests库包含不同类型的请求,这里使用GET请求。GET请求用于从Web服务器获取信息,使用GET请求可以获取指定网页的HTML内容。每个请求都对应一个状态码,状态码从服务器返回,这些状态码为我们提供了对应请求执行结果的相关信息。以下是部分状态码。
- 200:表示一切正常并返回结果(如果有)。
- 301:表示如果服务器已切换域名或必须更改端点名称,则服务器将重定向到其他端点。
- 400:表示用户发出了错误请求。
- 401:表示用户未通过身份验证。
- 403:表示用户正在尝试访问禁用的资源。
- 404:表示用户尝试访问的资源在服务器上不可用。
2.2 BeautifulSoup库
BeautifulSoup也是一个Python库,它包含简单的搜索、导航和修改方法。它只是一个工具包,用于从网页中提取所需的数据。
要在脚本中使用Requests和BeautifulSoup模块,必须使用import语句导入这两个模块。现在我们来看一个解析网页的示例程序,这里将解析一个来自百度网站的新闻网页。创建一个脚本,命名为parse_web_page.py,并在其中写入以下代码。
import requests
from bs4 import BeautifulSoup
page_result = requests.get('https://www.news.baidu.com')
parse_obj = BeautifulSoup(page_result.content, 'html.parser')
print(parse_obj)
运行脚本程序,如下所示。
student@ubuntu:~/work$ python3 parse_web_page.py
Output:
Top News - IMDb