使用搜狗接口对微信公众号爬虫

article/2025/10/6 14:41:12

搜狗搜索因为有微信公众号搜索的接口,所以通过这个接口就可以实现公众号的爬虫
这里写图片描述
需要安装几个python的库:selenium,pyquery
还使用到phantomjs.exe,这个需要我们自己去下载,然后放在自己的python工程下即可

在输入框输入想要爬取的公众号的微信号,然后搜公众号,这里写图片描述

可出现搜索结果,进入主页可以看到该公众号最近发布的文章,点击标题可查看文章内容
这里写图片描述
由此思路,能够在网页上查看微信公众号的推送,即可实现公众号爬虫;但搜狗搜索有个不足就是只能查看公众号最近发布的10条推送,再以往的历史记录无法查看。

有了爬虫思路之后就是开始实现的过程,先拿到搜狗搜索的接口

http://weixin.sogou.com/weixin?query=keyword

通过这个接口即能够获取到公众号主页入口,文章列表,文章内容,用python来写爬虫的实现,下面是运行结果,得到文章标题、文章链接、文章简述、发表时间、封面图片链接、文章内容,并且将爬取到的这些信息存入文本文档,公众号的文章爬取就完成了。

话不多说,代码如下:


from pyquery import PyQuery as pq
from selenium import webdriverimport os
import re
import requests
import time# 使用webdriver 加载公众号主页内容,主要是js渲染的部分
def get_selenium_js_html(url):browser = webdriver.PhantomJS(executable_path=r'phantomjs.exe')browser.get(url)time.sleep(3)# 执行js得到整个页面内容html = browser.execute_script("return document.documentElement.outerHTML")browser.close()return htmldef log(msg):print('%s: %s' % (time.strftime('%Y-%m-%d %H:%M:%S'), msg))# 创建公众号命名的文件夹
def create_dir():if not os.path.exists(keyword):os.makedirs(keyword)# 将获取到的文章转换为字典
def switch_articles_to_list(articles):articles_list = []i = 1if articles:for article in articles.items():log(u'开始整合(%d/%d)' % (i, len(articles)))# 处理单个文章articles_list.append(parse_one_article(article, i))i += 1return articles_list# 解析单篇文章
def parse_one_article(article, i):article_dict = {}# 获取标题title = article('h4[class="weui_media_title"]').text().strip()log(u'标题是: %s' % title)# 获取标题对应的地址url = 'http://mp.weixin.qq.com' + article('h4[class="weui_media_title"]').attr('hrefs')log(u'地址为: %s' % url)# 获取概要内容summary = article('.weui_media_desc').text()log(u'文章简述: %s' % summary)# 获取文章发表时间date = article('.weui_media_extra_info').text().strip()log(u'发表时间为: %s' % date)# 获取封面图片pic = parse_cover_pic(article)# 获取文章内容(pyQuery.text / html)#log('content是')#log(parse_content_by_url(url))content = parse_content_by_url(url).text()log('获取到content')# 存储文章到本地#content_file_title = keyword + '/' + str(i) + '_' + title + '_' + date + '.html'#with open(content_file_title, 'w', encoding='utf-8') as f:#    f.write(content)content_title = keyword + '/' + keyword + '.txt'with open(content_title, 'a', encoding='utf-8') as f:print('第', i, '条', file=f)print('title:', title, file=f)print('url:', url, file=f)print('summary:', summary, file=f)print('date:', date, file=f)print('pic:', pic, file=f)print('content:', content, file=f)print(file=f)log('写入content')article_dict = {'title': title,'url': url,'summary': summary,'date': date,'pic': pic,'content': content}return article_dict# 查找封面图片,获取封面图片地址
def parse_cover_pic(article):pic = article('.weui_media_hd').attr('style')p = re.compile(r'background-image:url\((.*?)\)')rs = p.findall(pic)log(u'封面图片是:%s ' % rs[0] if len(rs) > 0 else '')return rs[0] if len(rs) > 0 else ''# 获取文章页面详情
def parse_content_by_url(url):page_html = get_selenium_js_html(url)return pq(page_html)('#js_content')'''程序入口'''
keyword = 'python'
create_dir()
url = 'http://weixin.sogou.com/weixin?query=%s' % keyword
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0'}
try:log(u'开始调用sougou搜索引擎')r = requests.get(url, headers=headers)r.raise_for_status()print(r.status_code)print(r.request.url)print(len(r.text))#print(r.text)#print(re.Session().get(url).text)
except:print('爬取失败')# 获得公众号主页地址
doc = pq(r.text)
log(u'获取sougou_search_html成功,开始抓取公众号对应的主页wx_url')
home_url = doc('div[class=txt-box]')('p[class=tit]')('a').attr('href')
log(u'获取wx_url成功,%s' % home_url)# 使用webdriver 加载公众号主页内容,主要是js渲染的部分
log(u'开始调用selenium渲染公众号主页html')
html = get_selenium_js_html(home_url)#有时候对方会封锁ip,这里做一下判断,检测html中是否包含id=verify_change的标签,有的话,代表被重定向了,提醒过一阵子重试
if pq(html)('#verify_change').text() != '':log(u'爬虫被目标网站封锁,请稍后再试')
else:log(u'调用selenium渲染html完成,开始解析公众号文章')doc = pq(html)articles = doc('div[class="weui_media_box appmsg"]')#print(articles)log(u'抓取到微信文章%d篇' % len(articles))article_list = switch_articles_to_list(articles)print(article_list)log('程序结束')

http://chatgpt.dhexx.cn/article/m5hTX4rp.shtml

相关文章

爬取微信公众号文章

新增了GUI界面,效果如图 ************************************************************************************************试了多种方法,发现还是使用自己创建一个公众号再搜索的方式最有用。有三种方法,第一种:用搜狗微信公…

[python]微信公众号文章爬取

[python]微信公众号文章爬取 需求 爬取一些微信公众号的文章 数据来源 1.搜狗微信搜索,可以搜索微信公众号文章,但只能显示该公众号最近十篇的文章 2.通过个人微信公众号中的素材管理,查看其他微信公众号文章 步骤 1.手动从网站上获取co…

Python2.7爬虫——爬取微信公众号文章

今天跟着这篇博客抓取微信公众号文章练习了一下爬虫,运行成功。想和大家分享一下过程中出现的问题和解决方法。 运行环境 windows 7 Pycharm2018 Python 2.7 目录 目录 1.安装必要的Python包 1.1 关于下载selenium包1.2关于下载json包 2.运行之前的准备 代码中需…

基于搜狗搜索的微信公众号爬虫实现(C#版本)

为什么80%的码农都做不了架构师?>>> Author: Hoyho Luo Email: luohaihaogmail.com Source Url:http://here2say.me/11/ 转载请保留此出处 本文介绍基于搜狗的微信公众号定向爬虫,使用C#实现,故取名WeGouSharp。本文中的项目托管…

fiddle python抓取微信公众号文章

分析 1,先进行准备工作:使用fiddle抓包(大家可以自行百度怎么使用哦) 2,打开电脑端微信,找到需要爬取的公众号 点击进入公众号,再打开fiddle,微信停留在这一步 打开fiddle后再点击…

Java Selenium 爬取微信公众号文章图片.md

项目地址结尾 一、前期准备 1. 下载selenium的驱动 Chrome http://chromedriver.storage.googleapis.com/index.html Firefox https://github.com/mozilla/geckodriver/releases/ IE http://selenium-release.storage.googleapis.com/index.html 下载好驱动然后放到、对…

python爬虫(17)爬出新高度_抓取微信公众号文章(selenium+phantomjs)

个人博客请访问 http://www.x0100.top 一.思路分析 目前所知晓的能够抓取的方法有: 1、微信APP中微信公众号文章链接的直接抓取(http://mp.weixin.qq.com/s?__bizMjM5MzU4ODk2MA&mid2735446906&idx1&snece37deaba0c8ebb9badf07e5a5a3bd…

获取微信公众号文章内视频真实地址

PHP获取微信公众号文章内视频与音频真实地址 微信公众号的文章的爬取可以看到这个项目:github 基于QueryList的微信公众号文章获取工具 有任何问题可以留言。 返回数据: 包含音频和视频包含多个视频 原有找到的文章 如何抓取微信公众号文章里面的视频…

Python爬取微信公众号文章、点赞数

代码还是热乎的,只要你细心一步步的慢慢调试,绝壁没问题 前期准备 订阅号;Python;Fiddler;微信账号; 流程 使用用微信公众号生成cookie使用Fiddler抓取微信公众号数据, 获取阅读数通过cooki…

如何爬取微信公众号文章(二)

在如何爬取微信公众号(一)中完成了将爬取公众号文章的元数据存入数据库,其中包括文章的连接、标题、发布时间、摘要和封面图片等信息。下面介绍如何根据文章链接来爬取文章内容。 开发环境 windows 7 x64python3.7 (Anaconda)vscode 编辑器…

如何爬取微信公众号文章(一)

微信公众号是目前最为流行的自媒体之一,上面有大量的内容,如何将自己感兴趣的公众号内容爬取下来,离线浏览,或者作进一步的分析呢? 下面我们讨论一下微信公众号文章的爬取。 环境搭建 windows 7 x64python3.7 (Anac…

Python 爬虫之微信公众号

Python 爬虫之微信公众号 源代码放在文末。 本次爬虫需要的工具如下: selenium 驱动器对应浏览器的 webdriver一个微信订阅号在 2017 年 6 月左右,微信官方发布一篇文章 https://mp.weixin.qq.com/s/67sk-uKz9Ct4niT-f4u1KA,大致意思就是以后发布文章的时候可以插入其他公…

公网访问局域网家用nas

提到外网访问不得不说说家里局域网的搭建结构了,就拿大众最常用的方式举例,网络运营商的光纤入户,通过运营商提供的光猫直接pppoe进行拨号,再连接自己的路由器,分配至各网口。 自从上次充当灵魂画手被嘲笑了以后就改用…

外网访问群晖NAS VMM搭建Openwrt的admin界面

偶然在网上看到很多的帖子使用群晖搭建openwrt搭建旁路由,心血来潮体验了一把,记录一下自己的搭建的整个过程,并最终实现外网访问Openwrt的admin界面。 本人使用的群晖nas DS220+,其他品牌未尝试。 一、前期配置 1、先在套件中心下载VMM(Virtaul Machine Manager) 2、下…

2022年10月 cpolar软件实现内网穿透连接群晖NAS

前言 1.cpolar简介 cpolar是一款拥有远程控制和内网穿透功能的软件。而且还可以监控端口的HTTP请求,利用实时的cpolar Web UI开发者工具,让您调试代码更容易。您可以监听所有隧道上的HTTP消息包,分析消息包的结构内容,找出问题点…

群晖内网穿透 实现外网快速访问 无需公网

有群晖的情况下,在内网我们可以通过ip正常访问我们的群晖/NAS;但是我们想要在外网访问的时候该怎么办,没有公网ip,扯专线太贵,自己搭建太麻烦。这无疑是个难题; 今天,小编找到了一款免费的内网穿透工具来实…

通过公网+域名访问家里的群晖服务器

公网域名访问群晖服务器 前言准备的东西如何判断你家里的宽带是公网IP通过公网IP网访群晖,端口映射申请域名和DDNS添加DDNS映射写在最后 前言 最近换了个工作,然后有代码的托管需求。想想用GitHub太卡了,国内的开源托管网站因为一些国人的素…

猫盘群晖外部网络访问的三种方法:公网IP、内网穿透、qc的实际评测

目录 具体过程概述内网穿透公网IPQuickconnect(QC)结语 具体过程 概述 最近想入手一个NAS,由于我是新手入门,就选择入手了便宜的猫盘。我的猫盘是白群晖系统所以支持QC的功能,因此对目前猫盘群晖的DiskStation Manager&#xff…

特征值和特征矩阵

写一点对矩阵特征值和特征矩阵的理解 1. A是一个矩阵,它作用在向量v上。如果A是2阶对角阵的话,它起到的作用是将向量v在横纵方向拉伸 2. 当A是一个普通2阶矩阵时,它对v的拉伸不再是横纵方向,而是任意方向的,这取决于实…

三阶矩阵求特征值的快速算法

一般的三阶矩阵求特征值其实是解析不了的,因为特征方程对应的是三次方程,对于一般的三次方程,是很难求解的。要想方程有三个整数根,并且能够不用完全暴力展开三阶行列式这样的矩阵实际是很特殊的。 1.某一行有两个0的情况是最好算…