【scrapy爬虫】最新sogou搜狗搜索 机智操作绕过反爬验证码(搜狗微信公众号文章同理)

article/2025/6/24 11:43:34

前情提要

此代码使用scrapy框架爬取特定“关键词”下的搜狗常规搜索结果,保存到同级目录下csv文件。并非爬取微信公众号文章,但是绕过验证码的原理相同。如有错误,希望大家指正。

URL结构

https://www.sogou.com/web?query={关键词}&page={n}

开始爬取

scrapy常规操作就不唠叨了,上代码

class SougouSearchSpider(scrapy.Spider):name = 'sogou_search'allowed_domains = ['www.sogou.com']start_urls = ['https://www.sogou.com/web?query=python&page=1']def start_requests(self):for url in self.start_urls:yield scrapy.Request(url=url,callback=self.parse)

一顿操作后,发现刚爬了3页,就停止了。报错如下

2020-06-11 16:05:15 [scrapy.downloadermiddlewares.redirect] DEBUG: Redirecting (302) to <GET http://www.sogou.com/antispider/?from=%2Fweb%3Fquery%3Dpython%26page%3D7%26ie%3Dutf8&suuid=6969bcac-7309-410c-b2f0-67d2e882e8a5&m=1> from <GET https://www.sogou.com/web?query=python&page=4&ie=utf8>

应该访问的第四页被302重定向到了antispider反爬虫的验证码界面
验证码
看到这里,我们采取一下常规措施:
1.更换动态IP
2.伪装header
3.硬刚破解验证码

一步一步来,我们先更换IP。这里我使用的是使用Redis的免费代理IP池:ProxyPool,Github地址。非常nice,代码十分简练。

import requests
proxypool_url = 'http://127.0.0.1:5555/random'
def get_random_proxy():response = requests.get(proxypool_url)try:if response.status_code == 200:return response.text.strip()except ConnectionError:return None

遗憾的是,只换IP不太行,还是会被302到antispider页面。
接下来,我们伪装一下header,先看一下request.header。手动搜索,然后F12查看。
F12
user-agent可以由fake_useragent随机生成,Github地址。难的是cookies。

ssuid=6821261448; IPLOC=CN3301; 
SUID=6E4A782A1810990A000000005D1B0530; 
SUV=001E174F2A784A5C5D356F6A8DE34468; 
wuid=AAGgaAPZKAAAAAqLFD1NdAgAGwY=; 
CXID=76D40644BC123D9C02A653E240879D21; 
ABTEST=1|1590639095|v17; browerV=3; osV=1; pgv_pvi=4077461504; 
ad=TWMV9lllll2WYZuMlllllVEYsfUlllllKgo1fZllll9lllllxllll5@@@@@@@@@@; 
pgv_si=s7053197312; clientId=1B608ECCC1D96A9828CC801DC0116B61; 
SNUID=8BAB9BC9E2E6452717FC02C7E3A7749E; 
ld=VZllllllll2W88XflllllVEPcwylllll3XPwWlllllUllllljZlll5@@@@@@@@@@; 
sst0=711; LSTMV=190%2C728; LCLKINT=2808800; sct=36

多访问几个网页,查看参数变化。然后发现重要的参数只有两个

SUV=001E174F2A784A5C5D356F6A8DE34468;
SNUID=8BAB9BC9E2E6452717FC02C7E3A7749E;

然后我就带着这两个参数的cookies去访问了,虽然多爬了2页,但是很快遇到了antispider。

然后我就想我每访问一页,换一组cookies,行不行?

机智操作登场

突然想到,搜狗是一个大家族,我访问其他搜狗页面,比如搜狗视频,应该也能拿到cookies。

def get_new_cookies():# 搜狗视频urlurl = 'https://v.sogou.com/v?ie=utf8&query=&p=40030600'proxies = {"http": "http://" + get_random_proxy()}headers = {'User-Agent': ua}rst = requests.get(url=url,headers=headers,allow_redirects=False,proxies=proxies)cookies = rst.cookies.get_dict()return cookies

果不其然,得到了想要的cookies:

{'IPLOC': 'CN3301', 
'SNUID': '13320250797FDDB3968937127A18F658', 
'SUV': '00390FEA2A7848695EE1EE6630A8C887', 
'JSESSIONID': 'aaakft_AlKG3p7g_ZIIkx'}

多打印了几次,每次的cookies值都不一样。这就OK了,马上放进scrapy。

大功告成

我尝试了每3秒爬一个网页,运行两小时,没触发antispider!
在这里插入图片描述
在这里插入图片描述
这样就满足我的需求了,就没有硬刚破解验证码。当然对接第三方打码平台很容易,就不多说了。
如果你嫌弃慢的话,可以缩短时间间隔。

完整代码如下

sougou_search.py

# coding=utf-8
from sougou_search_spider.items import SougouSearchSpiderItem
from IP.free_ip import get_random_proxy
from IP.get_cookies import get_new_cookies,get_new_headers
import scrapy
import time
import randomclass SougouSearchSpider(scrapy.Spider):name = 'sogou_search'allowed_domains = ['www.sogou.com']start_urls = ['https://www.sogou.com/web?query=python']def start_requests(self):headers = get_new_headers()for url in self.start_urls:# 获取代理IPproxy = 'http://' + str(get_random_proxy())yield scrapy.Request(url=url,callback=self.parse,headers=headers,meta={'http_proxy': proxy})def parse(self, response):headers_new = get_new_headers()cookies_new = get_new_cookies()# 获取当前页码current_page = int(response.xpath('//div[@id="pagebar_container"]/span/text()').extract_first())# 解析当前页面for i, a in enumerate(response.xpath('//div[contains(@class,"vrwrap")]/h3[@class="vrTitle"]/a')):# 获取标题,去除空格和换行符title = ''.join(a.xpath('./em/text() | ./text()').extract()).replace(' ', '').replace('\n', '')if title:item = SougouSearchSpiderItem()# 获取访问链接(①非跳转链接②跳转链接)、页码、行数、标题if a.xpath('@href').extract_first().startswith('/link'):item['visit_url'] = 'www.sogou.com' + a.xpath('@href').extract_first()  # 提取链接else:item['visit_url'] = a.xpath('@href').extract_first()item['page'] = current_pageitem['rank'] = i + 1item['title'] = titleyield item# 控制爬取频率time.sleep(random.randint(8, 10))# 获取“下一页”的链接p = response.xpath('//div[@id="pagebar_container"]/a[@id="sogou_next"]')if p:p_url = 'https://www.sogou.com/web' + str(p.xpath('@href').extract_first())proxy = 'http://' + str(get_random_proxy())yield scrapy.Request(url=p_url,callback=self.parse,headers=headers_new,cookies=cookies_new,meta={'http_proxy': proxy})

get_cookies.py

# coding=utf-8
from IP.free_ip import get_random_proxy
from fake_useragent import UserAgent
import requestsua = UserAgent().randomdef get_new_headers():headers = {"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9","Accept-Encoding": "gzip, deflate, br","Accept-Language": "zh-CN,zh;q=0.9,en;q=0.8","User-Agent": ua}return headersdef get_new_cookies():url = 'https://v.sogou.com/v?ie=utf8&query=&p=40030600'proxies = {"http": "http://" + get_random_proxy()}headers = {'User-Agent': ua}rst = requests.get(url=url,headers=headers,allow_redirects=False,proxies=proxies)cookies = rst.cookies.get_dict()return cookiesif __name__ == '__main__':print(get_new_cookies())

free_ip.py

# coding=utf-8
import requestsproxypool_url = 'http://127.0.0.1:5555/random'def get_random_proxy():response = requests.get(proxypool_url)try:if response.status_code == 200:return response.text.strip()except ConnectionError:return Noneif __name__ == '__main__':print(get_random_proxy())

setting.py

BOT_NAME = 'sougou_search_spider'SPIDER_MODULES = ['sougou_search_spider.spiders']
NEWSPIDER_MODULE = 'sougou_search_spider.spiders'REDIRECT_ENABLED = False
HTTPERROR_ALLOWED_CODES = [302]ROBOTSTXT_OBEY = False
COOKIES_ENABLED = TrueITEM_PIPELINES = {'sougou_search_spider.pipelines.CsvSougouSearchSpiderPipeline': 300,
}

http://chatgpt.dhexx.cn/article/rQaJR5hC.shtml

相关文章

利用搜狗抓取微信公众号文章

微信一直是一个自己玩的小圈子&#xff0c;前段时间搜狗推出的微信搜索带来了一丝曙光。搜狗搜索推出了内容搜索和公众号搜索两种&#xff0c;利用后者可以抓取微信公众号的最新内容&#xff0c;看了下还是比较及时的。 每个公众号都有一个openid&#xff0c;最早可以直接利用…

html语言判断水仙花数,水仙花数判断讲解

今天要讲解的这道题是 水仙花数判断 题目要求 本题要求实现一个函数&#xff0c;判断任一整数是否为水仙花数(必须是三位数&#xff0c;且数的每一位上数字的立方和与数本身相等)。例如1531^35^33^3112527153&#xff0c;而1或155则不是水仙花数。如果是水仙花数&#xff0c;则…

水仙花数的求解思路

目录 水仙花数输入一个数&#xff0c;求解从0到这个数的所有水仙花数 解题思路源代码&#xff1a;注意事项 水仙花数 在以前的博客之中写过求解水仙花数的博客 详情见下面链接&#xff1a; 求解水仙花数 在这里就主要写求解水仙花数的思路 输入一个数&#xff0c;求解从0到这…

计算水仙花数有哪些

计算水仙花数有哪些 一、介绍水仙花数二、使用while循环计算水仙花数1.源代码2.运行结果 三、使用for循环计算水仙花数1.执行代码部分2.运行结果3.源代码 一、介绍水仙花数 水仙花数指的是三位整数中每个数的立方之和等于本身的数 二、使用while循环计算水仙花数 1.源代码 …

水仙花数

一、描述&#xff1a; 所谓的“水仙花数”是指一个三位数其各位数字的立方和等于该数本身。 例如153是“水仙花数”&#xff0c;因为&#xff1a;153 13 53 33。 在数论中&#xff0c;水仙花数&#xff08;Narcissistic number&#xff09;也称为自恋数、自幂数、阿姆斯壮…

prgrmz的作品集

符号化执行(基于klee)生成测试用例初探 lstm广告点击量预测案例 一般蔬菜类果实无人采摘方案&#xff08;算法&#xff09; 分页页面通用爬虫建模(一般优化问题) 机器学习练习 概率图模型应用例子&#xff1a;图像分割 概率图模型应用例子&#xff1a;立体视觉 概率图模型…

全干工程师的自我修养---vue第一部分

全干工程师的自我修养—vue第一部分 1、环境搭建 主要是搭建nodejs环境&#xff0c;设置淘宝源及安装cnpm&#xff0c;在之前的文章中有提到过&#xff0c;就不再赘述。 接下来全局安装vue脚手架&#xff1a; cnpm install vue-cli -g这样就可以成功安装了&#xff0c;安装…

从业两年时间,我被一个女前端鄙视了!

学测试一定要找准方向&#xff0c;避免做无用功&#xff0c;可以看看现在的测试行业市场行情&#xff1a;测试行业现状分析及测试人员能力标准 早在四年前在深圳打拼的日子&#xff0c;第一家企业我就被一个女前端深深上了一课&#xff01; 看似很平常的几句话&#xff0c;其实…

职场摸爬滚打的卑微软件测试工!外包干了三年后,我废了...

去年国庆&#xff0c;我分享了一次一位阿里朋友的技术生涯&#xff0c;大家反响爆蓬&#xff0c;感觉十分有意思&#xff0c;今天我来分享一下我另一位朋友的真实经历&#xff0c;是不是很想听&#xff1f; 没错&#xff0c;我这位朋友是曾经外包公司的测试开发&#xff0c;而…

从哪一刻开始,我成了资深工程师

“ 我成了资深工程师&#xff01;” 当说这句话时&#xff0c;我们可能同时表达了两层含义&#xff1a;我在能力素质上是一位资深工程师了&#xff1b;我的 Title 更新为资深工程师了。 这两者之间有着必然联系。虽然 Title 的更新是一瞬间的事儿&#xff0c;但在其背后&…

一名测试开发工程师的内心自白,被裁员之前,没得到任何风声,措手不及......

目录&#xff1a;导读 前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结 前言 一个码农&#xff08;测试开发&#xff09;的自白 小…

前端小白奋斗史07

em 倾斜标签 ins 下划线标签 alter 替换文本 title 提示文本 target 目标窗口弹出方式 _blank _self 锚点链接 快速定位页面位置 特殊标签 空格 &#xff06;nbsp 你不是胖 &#xff1c; &#xff06;it &#xff1e; &gt element语法 父子记关系标签 ul&#xff1…

学艺不精,总是掉坑!前后端分离历险记

Spring Boot Vue 这一对技术栈目前看来可以说是非常的火热&#xff0c;关于 Spring Boot 松哥已经写过多篇教程&#xff0c;如&#xff1a; 40 篇原创干货&#xff0c;带你进入 Spring Boot 殿堂&#xff01; 前后端分离的文章也写过好几篇了&#xff0c;例如&#xff1a; 一个…

测试4年裸辞失业,面试17k的测试岗被按在地上摩擦,结局让我崩溃大哭...

作为IT行业的大热岗位——软件测试&#xff0c;只要你付出了&#xff0c;就会有回报。说它作为IT热门岗位之一是完全不虚的。可能很多人回说软件测试是吃青春饭的&#xff0c;但放眼望去&#xff0c;哪个工作不是这样的呢&#xff1f;会有哪家公司愿意养一些闲人呢&#xff1f;…

一名【合格】前端工程师的自检清单,劝退指南 >_<

到现在为止&#xff0c;前端工程师已经成为研发体系中的重要岗位之一。可是&#xff0c;与此相对的是&#xff0c;我发现极少或者几乎没有大学的计算机专业愿意开设前端课程&#xff0c;更没有系统性的教学方案出现。大部分前端工程师的知识&#xff0c;其实都是来自于实践和工…

测试4年裸辞失业,面试17k的测试岗被按在地上摩擦,结局让我崩溃大哭....

作为IT行业的大热岗位——软件测试&#xff0c;只要你付出了&#xff0c;就会有回报。说它作为IT热门岗位之一是完全不虚的。可能很多人回说软件测试是吃青春饭的&#xff0c;但放眼望去&#xff0c;哪个工作不是这样的呢&#xff1f;会有哪家公司愿意养一些闲人呢&#xff1f;…

Linux文件导入gitee仓库中

文章目录 零.前言1.在gitee中建立仓库2.向Linux系统中导入仓库3..gitignore4.总结 零.前言 本文将介绍如何将Linux中的文件存入gitee的仓库中&#xff0c;由于github时常登不上去&#xff0c;所以国内推荐gitee。 1.在gitee中建立仓库 首先我们先注册一账号&#xff0c;这里…

年少成名的我并没有放弃自己,谁敢说她\他文章比我写的好?!,不服来战!

大家镇定一下情绪&#xff0c;文章要开始了。 不择手段是人杰&#xff0c;不改初衷是英雄&#xff01; 年前读了老罗的这本书—— 《一个理想主义者的奋斗&#xff0c;The Adventures of an Idealist》回想起了我与新东方的故事 我与新东方的故事&#xff0c;大砥开始于高二…

小黑抱紧沛奇老师课程的大腿,继续学习git的日常积累:沛奇老师git笔记(git命令与分支)

课程链接 https://www.bilibili.com/video/BV1Ud4y1k715?p4&vd_source0b1383084f626b5cf37be3e82e883106 git入门 进入要管理的目录git init 初始化,即:让git帮助我们管理当前文件夹git status 检测当前文件目录下文件的状态三种状态变化 红色:新增的文件/修改了老文件…

后端开发——Flask框架从入门到入坟(终章)

前言 前面已经将Flask框架的内容基本梳理完了&#xff0c;在这篇文章中荔枝会将Flask的部署上云的步骤跟大家分享一下&#xff0c;其实也是基于宝塔页面来进行配置的啦哈哈哈。荔枝也会将环境配置命令和数据库迁移步骤分享出来&#xff0c;下面就由荔枝把具体的操作梳理出来吧哈…