Python网络爬虫的基本原理
来源:吕梁优就业IT培训学校时间:2020/9/30 8:47:56
通俗点来讲,我们可以把互联网比作一张大网,而网络爬虫就是在网上爬行的蜘蛛。把一个个网页比作节点,爬虫爬到这就相当于访问了该页面,获取其信息。然后,把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了。
爬虫的基本流程
1.发起请求
通过HTTP库向目标站点发起请求,也就是发送一个Request,请求可以包含额外的header等信息,等待服务器响应
2.获取响应内容
如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能是HTML,Json字符串,二进制数据(图片或者视频)等类型
3.解析内容
得到的内容可能是HTML,可以用正则表达式,页面解析库进行解析,可能是Json,可以直接转换为Json对象解析,可能是二进制数据,可以做保存或者进一步的处理
4.保存数据
保存形式多样,可以存为文本,也可以保存到数据库,或者保存特定格式的文件