手把手教你如何入门Python3 网络爬虫

article/2025/9/7 14:20:06

很多朋友学习Python都是先从爬虫开始,其原因不外两方面:

其一Python对爬虫支持度较好,类库众多,其二语法简单,入门容易,所以两者形影相随,不离不弃。

要使用python语言做爬虫,首先需要学习一下python的基础知识,然后补充学习HTML、CSS、JS、Ajax等相关的知识。

01 如何去学习?

可以按照三步走来理解:获取数据——解析数据——存储数据;

爬虫的第一个步骤就是对所要爬取的网页进行请求,以获取其相应返回的结果,然后再使用一些方法,对响应内容解析,提取想要的内容资源,最后,将提取出来的资源保存起来。

第一步:确定URL;

在爬取的时候内容往往很多,需要注意看一下关键字变化时链接的变化,网页的动静态、日期等。

第二步:发送请求;

建议从建议从requests+Xpath 开始,requests 负责连接网站,返回网页,Xpath 用于解析网页,便于抽取数据。

第三步:解析网页;

请求资源成功后,需要定位返回的整个网页的源代码,对数据进行清洗。

第四步:保存数据;整理好数据后保存

爬虫流程个人经验总结大致的3点:

(1)请求数据

请求的数据会有几种可能:

1)很简单的html页面,直接requests就可以请求成功

2)js渲染的页面 (这种页面超多)requests请求一堆js数据 ,模块 selenium (代码基于浏览器运行)

3)需要登录才能获取用的cookie 请求登录

4)json数据,这个就稍微有点难度

(2)数据处理

数据处理会有几种可能:

1)请求的数据是简单的,html结构页面–直接BS4解析就好了

2)请求的数据是json,导入json模块进行解析

3)请求的数据是简单的js渲染的html页面

其实就是js拼写的html,只要把其他无用的数据匹配掉,用正则找到剩下想要的html文本就好了,然后BS4解析。

3)写数据

open方法进行文件打开里面的参数进行文件格式设置,读写文件、编码格式操作。

with open(“XXX.xxx”,“a”,encoding=“utf-8) as f :f.write(’’‘写入的数据’’’)

文件格式我用过的就是txt、csv 、xml 大部分文本格式都支持的;

  • a–是创建文件 每次写都是重新创建

  • w–是追加

  • a–是读数据

encoding="utf-8"这句话 不加encoding= 在windows系统下会报编码错误;

如果数据量太大就写入到数据库;

了解完爬虫工作的基本流程,大概也可以知道爬虫需要掌握哪些技能基础了。

抓取数据是不是得掌握数据类型?网页解析得懂点网页知识吧?保存数据,文件读写能力、数据库得了解吧?

02 Python基础部分

如果你只是想简单写一些爬虫,那基础语法就够了,想学得更溜一点或者是应用到工作当中的话,最好系统的去学一遍Python,完整的知识体系很重要。

先过一遍最基本的Python知识:

  • 常量与变量

  • 常用的数据结构:list tuple set dict的基本操作

  • 条件控制语句、判断、循环语句

  • 字符串

  • 正则表达式

  • 熟悉各类函数

进阶部分:

  • 面对对象编程:类的实现、属性定义、实例、多重继承、slf的理解与使用

  • 网络编程

  • Linux基本操作

  • Python文件处理:读写解析

  • Python多进程与线程高并发编程

  • 爬虫框架scrapy

  • 分布式爬虫大规模抓取

Python模块实现爬虫:

  • urllib3、requests、lxml、bs4 模块大体作用讲解

  • 使用requests模块 get 方式获取静态页面数据

  • 使用requests模块 post 方式获取静态页面数据

  • 使用requests模块获取 ajax 动态页面数据

  • 使用requests模块模拟登录网站

  • 使用Tesseract进行验证码识别

这里,列了一些python中与爬虫相关的库和框架:

  • urllib

  • Requests

  • Beautiful Soup

  • Xpath语法与lxml库

  • PhantomJS

  • Selenium

  • PyQuery

  • Scrapy

好处就是不用自己造轮子,大量的库拿过来就可以用,网上的资料也比较多。

入门书籍的话推荐这本:《Python编程从入门到实践》

非常经典的一门入门书籍,我学Python那会儿也用的这本,包括基础知识和项目两部分,书中内容讲解比较详细精简,每个小结都附带有”动手试一试”环节,不会很枯燥。

03 网页基本知识

① HTTP:超文本传输协议

② HTTPS:HTTP+SSL(安全套接字层)

③ 理解网站的POST GET的一些相关概念,JS的一些基本内容,方便理解动态网页

进行爬虫学习,要懂得网页,一窍不通肯定不行,HTML中有网页大量的信息,爬虫主要抓取和解析网页的HTML。

HTML(Hyper Text Markup Language)为超文本标记语言,简单来讲,就是一种用于构建网页的编程语言。

一般情况下,网页头部分会定义HTML文档的编码以及网页的标题,而网页体部分则决定着一个网页中的正文内容。

也不用全部都学,但HTTP & HTTPS、网络协议、网络结构(HTML语法、html标签、数据、css样式、js等等什么的)这些还是得知道。

TCP/IP协议、HTTP协议

这些知识能够让你了解在网络请求和网络传输上的基本原理,了解就行,能够帮助今后写爬虫的时候理解爬虫的逻辑。

04 应对反爬

如果网站没有设置反爬措施的话,当然这是 不可能的!反爬和反反爬永远是同时存在的。

大型的网站一般都会设有反爬,掌握一些常用的反爬虫技巧爬取一般的网站问题不大。

常用的反爬技巧:

  • 控制ip访问频率

  • 字体反加密

  • 禁止cookie

  • 验证码OCR处理

  • 用户代理池技术

……

应对反爬处理手段:

  • 控制IP访问次数频率,增加时间间隔

  • Cookie池保存与处理

  • 用户代理池技术

  • 字体反加密

  • 验证码OCR处理

  • 抓包

……

个人觉得反爬无外乎:同一ip访问次数、同一用户,即cookie的访问频率/次数

如果说你的IP和用户数是无穷的,那获取数据的方式压根就不用愁,有各种方法可以获取,但实际上不太可能。

IP可以用IP池来解决,但注册的话一个手机号只能注册一个账号,且绑定了手机号,网站对注册这一块还是比较严的。

如果是碰到了最严重的反爬,用固定的访问频率依然不能抓取到你想要的有效数据,那就放弃吧,没要折腾了。

强制登陆+限制同一用户的访问频率/次数,是最严重的反爬。

我一般下面这三个用得比较多:

  • 不断添加新的cookie

  • 降级访问频率

  • 搭建ip池

因为我一般需要爬取的数据都比较简单,所以这几种方法基本可以应付反爬了。

顺便提一句:爬虫攻击网站,这个新手尤其注意!

主要是无限制的向服务器发送请求,造成网站服务器崩溃,就算你没有其他的目的,单纯搞着玩玩,但这跟黑客攻击没有任何区别。

所以还是要注意一下,友好爬虫,别把自己坑进去了!

另外很多人担心的一点:

爬虫本身是不违法的,也没有必要谈爬色变!

但是爬虫作为一门技术,用在什么地方?该怎么用?自己心里还是要有点底。切忌被一时的赚大钱和盲目跟风的好奇心,让自己爬进了狱子里。

robots协议相关说明:

05 爬取路线选择

  • 静态网页:

静态网页以及少量表单交互的网站可以使用如下的技术路线:

requests + BeautifulSoup + select css选择器
requests + BeautifulSoup + find_all 进行信息提取
requests + lxml/etree + xpath 表达式
requests + lxml/html/fromstring + xpath 表达式
  • 动态网页:

简单动态网页,需要有点击或者提交的可以参考selenium + phantomJS组合使用。

06 爬虫进阶

爬虫框架Scrapy

学到这里一般的爬虫已经不是问题了,但碰到更复杂的情况下,scrapy框架的作用就出来了,能非常方便的解决问题。

Scrapy框架构造

Scrapy可以让爬虫实现爬虫工程化、模块化,除了它的功能非常强大之外,还有强大的selector 能够方便地解析 response,便捷地构建request。

当你学会scrapy框架后,就可以自己去搭建一些爬虫框架了。

分布式爬虫

分布式爬虫通俗的讲就是多台机器多个 spider 对多个 url 的同时处理问题,分布式的方式可以极大提高程序的抓取效率。

听来虽然很懵,其实也是利用多线程的原理让多个爬虫同时工作,当你掌握分布式爬虫,实现大规模并发采集后,自动化数据获取会更便利。

爬虫学习的书籍可以去看看这本:《python网络爬虫开发实战》

这本书涵盖面较广,爬虫入门到一些比较高级的比如验证码识别、分布式爬虫、专用框架都写得很详细。

所以学完它满足一些基本需求不成问题了,比如批量下载图片、手机app抓包等等。

当你每个步骤都能做到很优秀的时候,你应该考虑如何使你的爬虫达到效率最高,也就是所谓的爬虫策略问题。

爬虫策略学习不是一朝一夕的事情,建议多看看一些比较优秀的爬虫的设计方案。

关于Python爬虫学习指南

爬虫作为一个热门的方向,不管是在自己兼职还是当成辅助技能提高工作效率,都是很不错的选择。通过爬虫技术可以将相关的内容收集起来,分析删选后得到我们真正需要的信息。这个信息收集分析整合的工作,可应用的范畴非常的广泛,无论是生活服务、出行旅行、金融投资、各类制造业的产品市场需求等等,都能够借助爬虫技术获取更精准有效的信息加以利用。

在这里插入图片描述

Python爬虫视频资料

在这里插入图片描述

Python实战练手案例&源码

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉 这份完整版的Python全套学习资料已经上传,朋友们如果需要可以扫描下方CSDN官方认证二维码或者点击链接免费领取保证100%免费

读者福利:CSDN大礼包:《Python小白从入门到精通全套学习资料》免费分享 安全链接免费领取

在这里插入图片描述


http://chatgpt.dhexx.cn/article/gDGHYmp8.shtml

相关文章

python3 爬虫

一.网络爬虫(Web Crawler) 1.网络爬虫:是一种按照一定的规则,自动地抓取网上信息的程序或者脚本。 2.爬虫:为了获取网上大量的我们能看的到或看不到的数据 3.基本步骤:(1)定位要爬的…

python 爬虫

Python 爬虫教程(更新中) 目录 1. 简介 2. 注意 3. xpathselenium 4. xpathscarpy(更新中) 5. icrawler 【借助更加便捷操作的pip包】 1. 简介 爬虫主要有2种方式:API(报文)-静态、模拟鼠标点击形式-动态; Xpath Scrapy(…

【python】python爬虫

爬虫基础 HTTP协议 HTTP是Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网(WWW:World Wide Web )服务器传输超文本到本地浏览器的传送协议。 HTTP是基于TCP/IP通信协议来传递数据(HT…

Python3 网络爬虫(一):初识网络爬虫之夜探老王家(2020年最新版)

一、前言 3年前,我在 csdn 写过 Python3 网络爬虫系列教程,经过三年的积累,累计阅读量近 90W。 同时,我也在 Github 开源了所有 Python3 网络爬虫代码,累积获得 10.3k 的 star,4.1k 的 fork。 可以说&…

Python3 爬虫快速入门攻略

一、什么是网络爬虫? 1、定义:网络爬虫(Web Spider),又被称为网页蜘蛛,是一种按照一定的规则,自动地抓取网站信息的程序或者脚本。 2、简介:网络蜘蛛是一个很形象的名字。如果把互…

Python3爬虫(一):Python的入门学习以及Python网络爬虫的初步认识

Author:baiyucraft BLog: baiyucraft’s Home IDE:PyCharm 其实对于Python,一直想去学习,但一直没有足够的的时候去研究,这次趁疫情在家的时间,对于Python好好的研究研究。算是作为自己对于Py…

Python3网络爬虫(一):利用urllib进行简单的网页抓取

运行平台:Windows Python版本:Python3.x IDE:Sublime text3 转载请注明作者和出处:http://blog.csdn.net/c406495762/article/details/58716886 一直想学习Python爬虫的知识,在网上搜索了一下,大部分都是…

python3 爬虫(初试牛刀)

此文章仅供学习交流使用 在学习爬虫之前,把最近对于 VMware 的网络学习做个总结 接下来,步入正题! 分析 Robots 协议 禁止所有爬虫访问任何目录的代码: User-agent: * Disallow:/允许所有爬虫访问任何目录的代码: …

Python3爬虫详解

1概述 爬虫在Python中是个实现起来比较简单,关键在于网页的分析和内容的抓取。最近由于个人需要写了些内容,这里总结下爬虫相关的内容。 本文爬虫相关实现没有使用scrapy框架,通过urllib请求、bs4来实现。 2网络请求 网络请求部分用到urlli…

python3爬虫学习

python3爬虫学习 一、爬虫流程: ①先由urllib的request打开Url得到网页html文档 ②浏览器打开网页源代码分析元素节点 ③通过Beautiful Soup或则正则表达式提取想要的数据 ④存储数据到本地磁盘或数据库(抓取,分析,存储&…

最通俗、最详细的 Python3 网络爬虫入门指南

很多朋友学习Python都是先从爬虫开始,其原因不外两方面: 其一Python对爬虫支持度较好,类库众多,其二语法简单,入门容易,所以两者形影相随,不离不弃。 要使用python语言做爬虫,首先需…

Maven安装和配置本地仓库和阿里云镜像

maven安装配置换阿里源 1.下载maven 打开maven官网https://maven.apache.org/download.cgi,下载maven安装包,下载完成后解压到你想放的位置,不用安装 2.配置环境变量 3.配置阿里源和repository地址 打开刚才的解压文件conf文件夹下的setting.…

阿里云云效Maven仓库

一、Maven仓库概要 私服的目的:我们有一些自己的公用包,不想拉取工程编译,直接使用已经上传到私服的Jar包,在需要使用的项目工程直接引用使用,加速开发效率和编译效率。 阿里云仓库地址: 公用主仓库&#…

阿里云maven仓库的使用详解以及报错解决方法

仓库介绍 阿里云Maven中央仓库为 阿里云云效 提供的公共代理仓库,帮助研发人员提高研发生产效率,使用阿里云Maven中央仓库作为下载源,速度更快更稳定。阿里云云效是企业级一站式 DevOps 平台,覆盖产品从需求到运营的研发全生命周…

IDEA设置Maven阿里镜像仓库

1.打开IDEA安装目录&#xff0c;并进入如下相对路径 "\IntelliJ IDEA 2022.3.2\plugins\maven\lib\maven3\conf"。 2.打开settings.xml文件&#xff0c;并按照阿里官方指南插入配置项到指定位置。 2.1) 查看官方指南 2.2) 复制配置内容 <mirror><id>al…

IDEA中的maven阿里仓库配置

IDEA中的maven阿里仓库配置 1、进入官网&#xff1a; http://maven.apache.org/download.cgi 下载解压&#xff0c;然后记住解压位置 2、settings.xml配置更改 打开下载的文件 apache-maven-3.6.3 > conf> settings.xml&#xff08;图一为原文件&#xff0c;图二为配置…

gradle配置阿里Maven仓库

使用gradle编译一个开源项目时&#xff0c;发现下载依赖包比较慢,打开项目下的build.gradle文件: 可以看到并没有配置国内Maven仓库&#xff0c;那就配置一个呗,参照Gradle官方文档配置阿里Maven仓库 在build.gradle文件中修改repositories,也就是在mavenLocal()和mavenCentral…

maven配置阿里仓库

大家使用maven下载jar包会很慢&#xff0c;最主要的原因是maven的仓库在英国&#xff0c;但如果使用了阿里的仓库下载jar包就会变得很便捷。下面是如和配置阿里的仓库。 <mirror><id>alimaven</id><mirrorOf>central</mirrorOf><name>ali…

maven 配置阿里云仓库

目录 0. 前置工作&#xff1a;安装jdk1. 配置 maven 环境变量2. 配置阿里云镜像仓库3 idea中maven的相关配置 0. 前置工作&#xff1a;安装jdk 参考步骤 1 2 3 1. 配置 maven 环境变量 2. 配置阿里云镜像仓库 对解压后的maven的conf/settings进行编辑 本地仓库中没有的东…

Maven之阿里云镜像仓库配置

Maven 镜像 简介 阿里云Maven中央仓库为阿里云云效提供的公共代理仓库&#xff0c;帮助研发人员提高研发生产效率&#xff0c;使用阿里云Maven中央仓库作为下载源&#xff0c;速度更快更稳定。阿里云云效 是企业级一站式 DevOps 平台&#xff0c;覆盖产品从需求到运营的研发全生…