【Python爬虫】猫眼电影榜单Top100

article/2025/11/10 5:14:43

这是一个入门级的Python爬虫,结构易于理解。本文对编写此爬虫的全过程进行了讲述。希望对大家的Python爬虫学习有所帮助。

一、目标

爬取猫眼电影榜单Top100,将数据存入Excel文件中,并利用pyecharts库进行数据可视化得到.html文件和.png文件。

二、内容

主要包括四个阶段:爬取网页全部数据、获取数据并进行处理、数据存储、数据可视化。

1、 爬取网页全部数据

通过requests.get()获得页面数据,使用etree.HTML()将字符串数据转变成_Element对象,并存储在列表中。

使用循环获得全部页面(共10页)的数据。

2、 获取数据并进行处理

使用xpath()方法对_Element对象进行解析,以获得所需要的信息。通过此方法可以获得所有电影的信息:电影名、主演、上映时间、评分(整数部分及小数部分)。

对数据进行进一步的处理:

  • 将主演原始数据中的反义字符’\n’、空格’ '以及“主演:”去除;
  • 将上映时间原始数据中的“上映时间:”去除;
  • 将评分的整数部分以及小数部分合并。

最后,将处理过的数据存储在列表中。

3、 数据存储

将爬取的数据放入一个Excel文件中,以实现对数据的长期存储。

4、数据可视化

利用pyecharts实现数据可视化。

统计猫眼电影Top100榜单中电影上映月份,生成echarts柱状图,并对图片进行渲染,将生成的文件存储到工程文件目录下。

三、运行结果

运行程序,控制台输出情况:
在这里插入图片描述

工程文件夹下生成了“好片月份分布.html”、“好片月份分布.png”以及“猫眼电影榜单Top100.xls”文件:
在这里插入图片描述

“猫眼电影榜单Top100.xls”文件内容(部分截图):

在这里插入图片描述

“好片月份分布.html”文件内容(去掉一个不含月份信息的数据,共99部电影分布情况):
在这里插入图片描述

“好片月份分布.png”文件内容:

在这里插入图片描述

观察生成的柱状图,可以发现在榜单中的电影竟然没有一部是在2月上映的,9月和12月上映的好片最多。

四、过程

1、爬取网页全部数据实现过程

观察网页地址找出榜单地址变化规律。每页十部电影,共10页。切换页面‘offset=’后的数字发生变化,为[0,10,20,…,90]。因此所有页面的网址为:

board_urls = ['https://maoyan.com/board/4?offset={0}'.format(i) for i in range(0, 100, 10)]

按F12进入元素审查,选择Network选型卡,找到“4?offset=0”文件。

在这里插入图片描述

查看此文件的Headers内容,找到‘User-Agent’和 ‘Cookie’。

在这里插入图片描述

请求数据时将由‘User-Agent’和 ‘Cookie’组成的headers一起传入即可模拟浏览器对网站进行访问,并绕过滑块拼图验证。

 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36','Cookie': 'mta=222214055.1603977692790.1605667197555.1605667216476.84; uuid_n_v=v1; uuid=A8B9B7F019E911EB9D95490677AB0FF651894580EC0942CDA95D1D5CD9BEE13D; _lxsdk_cuid=175748545b3c8-0d6dc6ca2c5b4d-3c634103-144000-175748545b3c8; _lxsdk=A8B9B7F019E911EB9D95490677AB0FF651894580EC0942CDA95D1D5CD9BEE13D; _lx_utm=utm_source%3DBaidu%26utm_medium%3Dorganic; __mta=222214055.1603977692790.1605606918555.1605606922430.33; _csrf=e50e37a20022fed414d7d479d61fb627bd72f61c2be692b12edc786fdb91dea2; Hm_lvt_703e94591e87be68cc8da0da7cbd0be2=1604192299,1605603303,1605612340,1605665922; Hm_lpvt_703e94591e87be68cc8da0da7cbd0be2=1605667216; _lxsdk_s=175d9259dda-76-0bc-84b%7C%7C32'}

使用etree.HTML()将获取的数据转换成_Element对象存入列表中。使用循环,将10页的全部内容都存入此列表中。

# 从网页爬取数据
def scraping():board_urls = ['https://maoyan.com/board/4?offset={0}'.format(i) for i in range(0, 100, 10)]# 'User-Agent':模拟浏览器访问# 'Cookie':模拟登录,绕过滑动拼图验证headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36','Cookie': 'mta=222214055.1603977692790.1605667197555.1605667216476.84; uuid_n_v=v1; uuid=A8B9B7F019E911EB9D95490677AB0FF651894580EC0942CDA95D1D5CD9BEE13D; _lxsdk_cuid=175748545b3c8-0d6dc6ca2c5b4d-3c634103-144000-175748545b3c8; _lxsdk=A8B9B7F019E911EB9D95490677AB0FF651894580EC0942CDA95D1D5CD9BEE13D; _lx_utm=utm_source%3DBaidu%26utm_medium%3Dorganic; __mta=222214055.1603977692790.1605606918555.1605606922430.33; _csrf=e50e37a20022fed414d7d479d61fb627bd72f61c2be692b12edc786fdb91dea2; Hm_lvt_703e94591e87be68cc8da0da7cbd0be2=1604192299,1605603303,1605612340,1605665922; Hm_lpvt_703e94591e87be68cc8da0da7cbd0be2=1605667216; _lxsdk_s=175d9259dda-76-0bc-84b%7C%7C32'}# 获得全部页面信息存入列表中board_html = []for board_url in board_urls:board_url_data = requests.get(board_url, headers=headers)board_url_html = etree.HTML(board_url_data.content.decode('UTF-8'))if board_url_html == None:print("爬取失败。。。")else:print(board_url + '爬取成功')board_html.append(board_url_html)time.sleep(0.5)return board_html

第一部分到此结束。

2、 获取数据并进行处理实现过程

查看HTML文件,可以看到我们准备爬取的相关信息。
在这里插入图片描述

在需要获取的内容上点击右键,即可复制此属性的XPath。

在这里插入图片描述
例如://*[@id=“app”]/div/div/div[1]/dl/dd[1]/div/div/div[1]/p[1]/a

但这只是第一个电影的属性及内容。将‘dd’后的下标删除后即可获得本页所有电影的相同信息。

即://*[@id=“app”]/div/div/div[1]/dl/dd/div/div/div[1]/p[1]/a即可。

同理可以获得电影名称、主演、上映时间以及评分(整数及小数部分)的全部数据。

获取原始数据后,需要对数据进行处理:

  • 将主演原始数据中的反义字符’\n’、空格’ '以及“主演:”去除;
star.append(str(star_org[i]).replace('\n', '').strip()[3:])
  • 将上映时间原始数据中的“上映时间:”去除;
releastime.append(str(releastime_org[i])[5:])
  • 将评分的整数部分以及小数部分合并。
score.append(str(float(integer[i][0]) + float(fraction[i]) * 0.1))

最终获得干净整洁的数据。

# 处理数据
def data_processing(board_html):# 解析排名、电影名、主演、上映时间、评分数据index = [i for i in range(1, 101)]name = []star_org = []star = []releastime_org = []releastime = []integer = []fraction = []score = []# 数据预处理for page_html in board_html:name.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[1]/p[1]/a/@title'))star_org.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[1]/p[2]/text()'))releastime_org.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[1]/p[3]/text()'))integer.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[2]/p/i[1]/text()'))fraction.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[2]/p/i[2]/text()'))# 对数据精细处理for i in range(0, 100):# 将star_org中的反义字符'\n'、空格' '以及“主演:”去除star.append(str(star_org[i]).replace('\n', '').strip()[3:])# 将releastime_org中的“上映时间:”去除releastime.append(str(releastime_org[i])[5:])# 将评分的整数部分以及小数部分合并score.append(str(float(integer[i][0]) + float(fraction[i]) * 0.1))# data中存入经过处理的所有数据data = [index, name, star, releastime, score]return data

至此,第二阶段结束。

3、 数据存储实现过程

通过参数传递获取第二阶段取得的数据,使用xlwt库将数据写入Excel文件中。

将数据存入Excel文件的本质就是将数据一个单元格一个单元格的存入表格中。最后将文件保存即可。

# 将爬取到的数据存入Excel文件中
import xlwtdef build_excel_file(data):# 创建一个Excel文件f = xlwt.Workbook(encoding='UTF-8')# 创建一个sheetsheet1 = f.add_sheet(u'猫眼电影榜单Top100', cell_overwrite_ok=True)title = ['排名', '电影名称', '主演', '上映时间', '评分']# 写入列名for i in range(len(title)):sheet1.write(0, i, title[i])# 填写数据for i in range(1, 101):for j in range(len(title)):sheet1.write(i, j, data[j][i - 1])f.save('猫眼电影榜单Top100.xls')

第三阶段的数据存储结束。

4、数据可视化实现过程

观察获取到的数据,思考可以进行哪些分析。

我对“榜单中的电影上映时间的月份分布”比较感兴趣,遂将其定为可视化分析目标。

首先,从第二阶段获得的数据中的上映时间获取出月份信息,并统计每个月份的出现次数。由于有电影的上映时间里并没有月份,所以要对获取的数据进行处理,将不含月份信息的数据剔除。

然后使用pyecharts.charts中的Bar生成柱状图。值得注意的是pyecharts的0.5.x版本与1以上版本不兼容,并且有很大的变化。

关于pyecharts更多内容请查看pyecharts项目的Github网页。

在这里插入图片描述

采用链式调用方式添加柱状图的数据及配置项,并使用 snapshot-selenium渲染图片,生成.html文件和.png文件,存储在项目文件下。
snapshot-selenium 是 pyecharts + selenium 渲染图片的扩展,使用 selenium 需要配置 browser driver。

# 可视化
from pyecharts.charts import Bar
import pyecharts.options as opts
from pyecharts.render import make_snapshot
from snapshot_selenium import snapshotdef build_bar_chart(data) -> Bar:# 设置行名columns = ["Jan", "Feb", "Mar", "Apr", "May", "Jun", "Jul", "Aug", "Sep", "Oct", "Nov", "Dec"]# 分析上映时间数据num = [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]for time in data[3]:# 提取电影上映的月份month = time[5:7]# 若没有月份数据就跳过if month.isdigit():num[int(month) - 1] += 1# 添加柱状图的数据及配置项c = (Bar()# 设置X轴内容.add_xaxis(columns)# 设置Y轴内容.add_yaxis("上映电影数量", num)# 设置主标题以及副标题.set_global_opts(title_opts=opts.TitleOpts(title="好片月份分布", subtitle="猫眼电影榜单Top100上映的月份分布情况")))return c

至此,整个项目就都结束了。

五、完整代码

import time
import requests
from lxml import etree# 从网页爬取数据
def scraping():board_urls = ['https://maoyan.com/board/4?offset={0}'.format(i) for i in range(0, 100, 10)]# 'User-Agent':模拟浏览器访问# 'Cookie':模拟登录,绕过滑动拼图验证headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36','Cookie': 'mta=222214055.1603977692790.1605667197555.1605667216476.84; uuid_n_v=v1; uuid=A8B9B7F019E911EB9D95490677AB0FF651894580EC0942CDA95D1D5CD9BEE13D; _lxsdk_cuid=175748545b3c8-0d6dc6ca2c5b4d-3c634103-144000-175748545b3c8; _lxsdk=A8B9B7F019E911EB9D95490677AB0FF651894580EC0942CDA95D1D5CD9BEE13D; _lx_utm=utm_source%3DBaidu%26utm_medium%3Dorganic; __mta=222214055.1603977692790.1605606918555.1605606922430.33; _csrf=e50e37a20022fed414d7d479d61fb627bd72f61c2be692b12edc786fdb91dea2; Hm_lvt_703e94591e87be68cc8da0da7cbd0be2=1604192299,1605603303,1605612340,1605665922; Hm_lpvt_703e94591e87be68cc8da0da7cbd0be2=1605667216; _lxsdk_s=175d9259dda-76-0bc-84b%7C%7C32'}# 获得全部页面信息存入列表中board_html = []for board_url in board_urls:board_url_data = requests.get(board_url, headers=headers)board_url_html = etree.HTML(board_url_data.content.decode('UTF-8'))if board_url_html == None:print("爬取失败。。。")else:print(board_url + '爬取成功')board_html.append(board_url_html)time.sleep(0.5)return board_html# 处理数据
def data_processing(board_html):# 解析排名、电影名、主演、上映时间、评分数据index = [i for i in range(1, 101)]name = []star_org = []star = []releastime_org = []releastime = []integer = []fraction = []score = []# 数据预处理for page_html in board_html:name.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[1]/p[1]/a/@title'))star_org.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[1]/p[2]/text()'))releastime_org.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[1]/p[3]/text()'))integer.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[2]/p/i[1]/text()'))fraction.extend(page_html.xpath('//*[@id="app"]/div/div/div[1]/dl/dd/div/div/div[2]/p/i[2]/text()'))# 对数据精细处理for i in range(0, 100):# 将star_org中的反义字符'\n'、空格' '以及“主演:”去除star.append(str(star_org[i]).replace('\n', '').strip()[3:])# 将releastime_org中的“上映时间:”去除releastime.append(str(releastime_org[i])[5:])# 将评分的整数部分以及小数部分合并score.append(str(float(integer[i][0]) + float(fraction[i]) * 0.1))# data中存入经过处理的所有数据data = [index, name, star, releastime, score]return data# 将爬取到的数据存入Excel文件中
import xlwtdef build_excel_file(data):# 创建一个Excel文件f = xlwt.Workbook(encoding='UTF-8')# 创建一个sheetsheet1 = f.add_sheet(u'猫眼电影榜单Top100', cell_overwrite_ok=True)title = ['排名', '电影名称', '主演', '上映时间', '评分']# 写入列名for i in range(len(title)):sheet1.write(0, i, title[i])# 填写数据for i in range(1, 101):for j in range(len(title)):sheet1.write(i, j, data[j][i - 1])f.save('猫眼电影榜单Top100.xls')# 可视化
from pyecharts.charts import Bar
import pyecharts.options as opts
from pyecharts.render import make_snapshot
from snapshot_selenium import snapshotdef build_bar_chart(data) -> Bar:# 设置行名columns = ["Jan", "Feb", "Mar", "Apr", "May", "Jun", "Jul", "Aug", "Sep", "Oct", "Nov", "Dec"]# 分析上映时间数据num = [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]for time in data[3]:# 提取电影上映的月份month = time[5:7]# 若没有月份数据就跳过if month.isdigit():num[int(month) - 1] += 1# 添加柱状图的数据及配置项c = (Bar()# 设置X轴内容.add_xaxis(columns)# 设置Y轴内容.add_yaxis("上映电影数量", num)# 设置主标题以及副标题.set_global_opts(title_opts=opts.TitleOpts(title="好片月份分布", subtitle="猫眼电影榜单Top100上映的月份分布情况")))return cdef main():print("################程序运行开始################")print("<---------------开始爬取数据--------------->")board_html = scraping()print("<---------------数据爬取完成--------------->")print("<---------------开始处理数据--------------->")data = data_processing(board_html)print("<---------------数据处理完成--------------->")print("<---------------开始存储数据--------------->")print("将爬取数据存入Excel文件:")build_excel_file(data)print("<---------------数据存储完成--------------->")print("<--------------开始可视化数据-------------->")print("生成echarts柱状图(.html && .png)")print("渲染图片中。。。")make_snapshot(snapshot, build_bar_chart(data).render("好片月份分布.html"), "好片月份分布.png")print("<--------------数据可视化完成-------------->")print("################程序运行结束################")if __name__ == '__main__':main()

http://chatgpt.dhexx.cn/article/ah5r3n6k.shtml

相关文章

python爬虫阶段性总结和项目实操——爬取猫眼票房Top100

本博客通过爬取猫眼票房Top100来简要复习一下网页的HTML获取&#xff08;requests库&#xff09;解析&#xff08;Beautiful Soup库&#xff09;和数据保存&#xff08;csv库&#xff09;以及总结一下爬取过程中遇到的问题和解决方法 运行结果如下 1.获取网页源代码 def get_…

猫眼产品分析

一、前言 本文试图通过对猫眼电影的版本迭代历程分析、用户分析、功能分析、运营分析以及数据表现来回答以下几个问题&#xff1a; &#xff08;1&#xff09;猫眼电影的产品定位&#xff1f; &#xff08;2&#xff09;猫眼电影产品设计及运营中有哪些亮点和策略&#xff1f…

详解用爬虫批量抓取猫眼电影票房数据

"大数据"是一个体量特别大&#xff0c;数据类别特别大的数据集&#xff0c;并且这样的数据集无法用传统数据库工具对其内容进行抓取、管理和处理。 "大数据"首先是指数据体量(volumes)大&#xff0c;指代大型数据集&#xff0c;一般在10TB规模左右&#xf…

基于Python的电影票房爬取与可视化系统的设计与实现

博主介绍&#xff1a;✌全网粉丝30W,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ &#x1f345;文末获取源码联系&#x1f345; &#x1f447;&#x1f3fb; 精彩专…

猫眼 — 破解数字反爬获取实时票房

From&#xff1a;https://zhuanlan.zhihu.com/p/33112359 js分析 猫_眼_电_影 字体文件 font-face&#xff1a;https://www.cnblogs.com/my8100/p/js_maoyandianying.html 解析某电影和某招聘网站的web-font自定义字体&#xff1a;https://www.jianshu.com/p/5400bbc8b634 Font…

猫眼电影票房爬取到MySQL中_爬取猫眼电影top100,request、beautifulsoup运用

这是第三篇爬虫实战&#xff0c;运用request请求&#xff0c;beautifulsoup解析&#xff0c;mysql储存。 如果你正在学习爬虫&#xff0c;本文是比较好的选择&#xff0c;建议在学习的时候打开猫眼电影top100进行标签的选择&#xff0c;具体分析步骤就省略啦&#xff0c;具体的…

python 抢票代码 猫眼演出_Python爬虫-猫眼电影排行

爬虫的目标 爬取猫眼电影TOP100的电影名称,时间,评分,图片等信息 抓取分析 查看网页源代码,找到对应的目标信息,发现一部电影对应的源代码是一个dd节点 抓取首页 为了方便,这里先抓取第一页的内容,运行之后,可以查看到网页的源代码,之后需要对页面进行解析。 import re…

flask+猫眼电影票房预测和电影推荐

flask猫眼电影票房预测和电影推荐&#xff0c;此系统有详细的录屏&#xff0c;下面只是部分截图&#xff0c;需要看完整录屏联系博主 系统开发语言python&#xff0c;框架为flask&#xff0c;数据库mysql&#xff0c;分为爬虫和可视化分析

猫眼电影产品分析

一、前言 本文试图通过对猫眼电影的版本迭代历程分析、用户分析、功能分析、运营分析以及数据表现来回答以下几个问题&#xff1a; &#xff08;1&#xff09;猫眼电影的产品定位&#xff1f; &#xff08;2&#xff09;猫眼电影产品设计及运营中有哪些亮点和策略&#xff1f; …

超过53亿!《长津湖》为什么这么火爆?我用 Python 来分析猫眼影评

对于这个十一黄金周的电影市场&#xff0c;绝对是《长津湖》的天下&#xff0c;目前票房就已经突破53亿&#xff0c;大有奋起直追《战狼2》的尽头。而且口碑也是相当的高&#xff0c;猫眼评分高达9.5&#xff0c;绝对的票房口碑双丰收啊 下面我们就通过爬取猫眼的电影评论&am…

python使用pyecharts对猫眼电影票房精美可视化分析简单仪表盘??(五个图好多个组件!!)

本次带来的是象形柱状图&#xff0c;玫瑰饼图&#xff0c;柱状图&#xff0c;折线图&#xff0c;漏斗图&#xff0c;并在一个网页上显示。排版也不好&#xff0c;其实我就是翻译下文档给大家讲解一下&#xff01; 我又来了&#xff01;上次做了个猫眼电影的不过瘾&#xff0c;又…

python爬猫眼电影影评,Python系列爬虫之爬取并简单分析猫眼电影影评

前言 今天给大家介绍利用Python爬取并简单分析猫眼电影影评。让我们愉快地开始吧~ 开发工具 Python版本&#xff1a;3.6.4 相关模块&#xff1a; requests模块&#xff1b; pyecharts模块&#xff1b; jieba模块&#xff1b; scipy模块&#xff1b; wordcloud模块&#xff1b; …

爬取猫眼电影,进行分析

目录 简介环境要求数据爬取爬取目标电影详情页反爬虫破解数据存储服务器搭建电影推荐 数据展示电影推荐电影评分电影票房电影类型词云 简介 这次是一次数据库实验&#xff0c;实验要求是了解最新的数据库&#xff0c;并使用&#xff01;做一个简单案例使用。根据实际需要就采用…

Python—猫眼电影票房爬虫实战 轻松弄懂字体反爬!

目标 1.爬取猫眼票房信息 2.将信息保存起来(MySQL、Redis、MongoDB或者Excel等等)&#xff0c;我们保存的是Excel 爬取网址 https://piaofang.maoyan.com/?vernormal&isid_key2d9aacd2f26d4d0dba63 分析 1.打开chrome&#xff0c;输入网址我们看到的效果如下 2.我们…

基于Python猫眼票房TOP100电影数据抓取

基于Python猫眼票房TOP100电影数据抓取 使用requests库抓取数据BeatifulSoup解析URL&#xff0c;将数据存入csv文件处理数据&#xff0c;生成图表 本次爬取数据使用Python语言在jupyter notebook上爬取的&#xff0c;并使用数据生成了一些图表。 使用requests库抓取数据 本段…

基于猫眼票房数据的可视化分析

案例背景&#xff1a;由于最近《哪吒之魔童降世》的火爆&#xff0c;最新票房已经超过49亿&#xff0c;使我对国内票房的整体走势有了很大兴趣&#xff0c;究竟49亿的票房数据&#xff0c;在国内是处于一个什么水平&#xff1f;除了票房数据&#xff0c;又有哪些特征因素可以用…

ardruino控制继电器_Arduino 各种模块篇-继电器

现在按照既定想法&#xff0c;把所有的arduino模块依次尝试一边。 链接到我的arduino Uno 与arduino mega 2560 上 mega 2560有更多的io口&#xff0c;而且cache也很大。所以应该更有效果。幸好可以有arduino IDE 现在比较稳定的版本官方提供的是1.0.3的。 而我用的是ubuntu库里…

【继电器模块教程基于Arduino】

继电器模块教程基于Arduino 前言介绍继电器模块继电器引出线示例:使用继电器模块和 PIR 运动传感器控制灯![在这里插入图片描述](https://img-blog.csdnimg.cn/760e865a1e6b49d4a8f3e9fe1a0a6f74.png)前言 本文介绍如何使用继电器模块通过 Arduino 控制电源电压。我们对继电器…

8路USB继电器模块 windows Linux使用

模块采用USB及串口与外界通信&#xff0c;方便模块与PC机、单片机连接。模块正常的工作电压为5V&#xff0c;并为ICSE014A(8路继电器)模块配置5V电源接口。具体参数见下表&#xff1a; ICSE012A ICSE013A ICSE014A 单位 备注 CC 4 2 8 模块路数 I 400 250 700 …

ardruino控制继电器_arduino控制继电器

一、arduino控制继电器 典型的继电器结构原理图如下: 继电器有一个输入回路,一般接低压电源,有一个输出回路,一般接高压电源。 输入回路中有一个电磁铁线圈,当输入回路有电流通过,电磁铁产生磁力,吸力使输出回路的触点接通,则输出回路导电(通)。 当输入回路无电流通过,…