Mysql - 分库分表

article/2025/8/22 0:54:33

介绍

问题分析

 随着互联网及移动互联网的发展,应用系统的数据量也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈:

  1. IO瓶颈:热点数据太多,数据库缓存不足,产生大量磁盘IO,效率较低。 请求数据太多,带宽不够,网络IO瓶颈。
  2. CPU瓶颈:排序、分组、连接查询、聚合统计等SQL会耗费大量的CPU资源,请求数太多,CPU现瓶颈。

为了解决上述问题,我们需要对数据库进行分库分表处理。

分库分表的中心思想都是将数据分散存储,使得单一数据库 / 表的数据量变小来缓解单一数据库的性能问题,从而达到提升数据库性能的目的。

拆分策略

分库分表的形式,主要是两种:垂直拆分和水平拆分。而拆分的粒度,一般又分为分库和分表,所以组成的拆分策略最终如下:

 垂直拆分

垂直分库

垂直分库:以表为依据,根据业务将不同表拆分到不同库中 

特点:
  • 每个库的表结构都不一样。
  • 每个库的数据也不一样。
  • 所有库的并集是全量数据。
垂直分表

 垂直分表:以字段为依据,根据字段属性将不同字段拆分到不同表中。

特点:
  • 每个表的结构都不一样。
  • 每个表的数据也不一样,一般通过一列(主键/外键)关联。
  • 所有表的并集是全量数据。

水平拆分

水平分库
水平分库:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。
特点:
  • 每个库的表结构都一样。
  • 每个库的数据都不一样。
  • 所有库的并集是全量数据。

水平分表

水平分表:以字段为依据,按照一定策略,将一个表的数据拆分到多个表中。  

特点:
  • 每个表的表结构都一样。
  • 每个表的数据都不一样。
  • 所有表的并集是全量数据。

在业务系统中,为了缓解磁盘 IO CPU 的性能瓶颈,到底是垂直拆分,还是水平拆分;具体是分
库,还是分表,都需要根据具体的业务需求具体分析。

实现技术

  • shardingJDBC:基于AOP原理,在应用程序中对本地执行的SQL进行拦截,解析、改写、路由处理。需要自行编码配置实现,只支持java语言,性能较高。
  • MyCat:数据库分库分表中间件,不用调整代码即可实现分库分表,支持多种语言,性能不及前者。

MyCat

介绍

Mycat 是开源的、活跃的、基于 Java 语言编写的 MySQL 数据库中间件。可以像使用 mysql 一样来使用mycat,对于开发人员来说根本感觉不到 mycat 的存在。
开发人员只需要连接 MyCat 即可,而具体底层用到几台数据库,每一台数据库服务器里面存储了什么数据,都无需关心。 具体的分库分表的策略,只需要在MyCat 中配置即可。
优势:
  • 性能可靠稳定
  • 强大的技术团队
  • 体系完善
  • 社区活跃
MyCat 的整体结构中,分为两个部分:上面的逻辑结构、下面的物理结构。
MyCat 的逻辑结构主要负责逻辑库、逻辑表、分片规则、分片节点等逻辑结构的处理,而具体的数据存储还是在物理结构,也就是数据库服务器中存储的。

 下载,安装

MyCat 下载,安装_naki_bb的博客-CSDN博客

Mycat 是采用 java 语言开发的开源的数据库中间件,支持 Windows Linux 运行环境,下面介绍
MyCat Linux 中的环境搭建。我们需要在准备好的服务器中安装如下软件。
  • MySQL
  • JDK
  • Mycat

MyCat 入门

由于 tb_order 表中数据量很大,磁盘 IO 及容量都到达了瓶颈,现在需要对 tb_order 表进行数
据分片,分为三个数据节点,每一个节点主机位于不同的服务器上 , 具体的结构,参考下图:

 

服务器
安装软件
说明
192.168.200.210
JDK Mycat
MyCat 中间件服务器
192.168.200.210
MySQL
分片服务器
192.168.200.213
MySQL
分片服务器
192.168.200.214
MySQL
分片服务器
并且在上述 3 台数据库中创建数据库 db01 并且关闭防火墙
# 开放指定3306端口
firewall-cmd --zone=public --add-port=3306/tcp -permanent
firewall-cmd -reload#关闭防火墙
systemctl stop firewalld
systemctl disable firewalld

Mycat 入门 - 配置

schema.xml

路径: 安装目录的/conf , /usr/local/mycat/conf

 schema.xml中配置逻辑库、逻辑表、数据节点、节点主机等相关信息。具体的配置如下:

<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/"><!-- 设置逻辑库信息 --><schema name="DB01" checkSQLschema="true" sqlMaxLimit="100"><!-- 设置逻辑表,分片节点,分片规则 --><table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" /></schema><!-- 设置分片节点信息,包含数据库的连接信息以及选择的数据库 --><dataNode name="dn1" dataHost="dhost1" database="db01" /><dataNode name="dn2" dataHost="dhost2" database="db01" /><dataNode name="dn3" dataHost="dhost3" database="db01" /><!-- 设置数据库信息  --><dataHost name="dhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100"><heartbeat>select user()</heartbeat><!-- 设置连接信息 --><writeHost host="master" url="jdbc:mysql://192.168.200.210:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp;characterEncoding=utf8" user="root" password="1234" /></dataHost><dataHost name="dhost2" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100"><heartbeat>select user()</heartbeat><writeHost host="master" url="jdbc:mysql://192.168.200.213:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp;characterEncoding=utf8" user="root" password="1234" /></dataHost><dataHost name="dhost3" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100"><heartbeat>select user()</heartbeat><writeHost host="master" url="jdbc:mysql://192.168.200.214:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp;characterEncoding=utf8" user="root" password="1234" /></dataHost>
</mycat:schema>

server.xml

路径: 安装目录的/conf , /usr/local/mycat/conf

需要在 server.xml 中配置用户名、密码,以及用户的访问权限信息,具体的配置如下:
<!-- 设置mycat root用户密码以及权限 -->
<user name="root" defaultAccount="true"><!-- 密码 --><property name="password">123456</property><!-- 可以操作的逻辑库 --><property name="schemas">DB01</property><!-- 表级 DML 权限设置 --><!-- <privileges check="true"> <schema name="DB01" dml="0110" > <table name="TB_ORDER" dml="1110"></table> </schema> </privileges> -->
</user>
<!-- 设置mycat user用户密码以及权限 -->
<user name="user"><!-- 密码 --><property name="password">123456</property><!-- 可以操作的逻辑库 --><property name="schemas">DB01</property><!-- user只有DB01逻辑库的只读权限 --><property name="readOnly">true</property>
</user>

Mycat 入门 - 启动

配置完毕后,先启动涉及到的 3 台分片服务器,然后启动 MyCat 服务器。切换到 Mycat 的安装目录,执行如下指令,启动Mycat
在mycat的安装目录下
#启动 
bin/mycat start #停止 
bin/mycat stop
Mycat 启动之后,占用端口号 8066
启动完毕之后,可以查看 logs 目录下的启动日志,查看 Mycat 是否启动完成。

Mycat 入门 - 测试

1.连接mycat

mysql -h 192.168.200.210 -P 8066 -uroot -p123456
我们看到我们是通过 MySQL 的指令来连接的 MyCat ,因为 MyCat 在底层实际上是模拟了 MySQL 的协议

 2.数据测试

然后就可以在 MyCat 中来创建表,并往表结构中插入数据,查看数据在 MySQL 中的分布情况。
-- 创建表 三个数据库节点会同时创建
CREATE TABLE TB_ORDER
(id    BIGINT(20)   NOT NULL,title VARCHAR(100) NOT NULL,PRIMARY KEY (id)
) ENGINE = INNODBDEFAULT CHARSET = utf8; -- 插入数据会落到 第一个数据库节点
INSERT INTO TB_ORDER(id,title) VALUES(1,'goods1'); 
-- 插入数据会落到 第一个数据库节点
INSERT INTO TB_ORDER(id,title) VALUES(2,'goods2'); 
-- 插入数据会落到 第一个数据库节点
INSERT INTO TB_ORDER(id,title) VALUES(3,'goods3'); 
-- 插入数据会落到 第一个数据库节点
INSERT INTO TB_ORDER(id,title) VALUES(5000000,'goods5000000'); -- 插入数据会落到 第二个数据库节点
INSERT INTO TB_ORDER(id,title) VALUES(5000001,'goods5000001'); 
-- 插入数据会落到 第二个数据库节点
INSERT INTO TB_ORDER(id,title) VALUES(10000000,'goods10000000');-- 插入数据会落到 第三个数据库节点 
INSERT INTO TB_ORDER(id,title) VALUES(10000001,'goods10000001'); 
-- 插入数据会落到 第三个数据库节点 
INSERT INTO TB_ORDER(id,title) VALUES(15000000,'goods15000000'); -- 会报错
INSERT INTO TB_ORDER(id,title) VALUES(15000001,'goods15000001');
经过测试,我们发现,在往 TB_ORDER 表中插入数据时:
  • 如果id的值在1-500w之间,数据将会存储在第一个分片数据库中。
  • 如果id的值在500w-1000w之间,数据将会存储在第二个分片数据库中。
  • 如果id的值在1000w-1500w之间,数据将会存储在第三个分片数据库中。
  • 如果id的值超出1500w,在插入数据时,将会报错。
为什么会出现这种现象,数据到底落在哪一个分片服务器到底是如何决定的呢? 这是由逻辑表配置时的一个参数 rule 决定的,而这个参数配置的就是分片规则.
rule的配置在:/usr/local/mycat/conf/rule.xml中

而我们选择的 “auto-sharding-long” 分片规则如下

 0-500W在第一个分片,500W-1000W在第二个分片,1000W-1200W在第三个分片,配置的上限只有1500W,如果超过这个限制就会报错.

Mycat配置

schema.xml

schema.xml 作为 MyCat 中最重要的配置文件之一 , 涵盖了 MyCat 的逻辑库 、 逻辑表 、 分片规
则、分片节点及数据源的配置。

主要包含以下三组标签:
  • schema标签
  • datanode标签
  • datahost标签

schema标签

1. 定义逻辑库

schema 标签用于定义 MyCat 实例中的逻辑库 , 一个 MyCat 实例中 , 可以有多个逻辑库 , 可以通
schema 标签来划分不同的逻辑库。 MyCat 中的逻辑库的概念,等同于 MySQL 中的 database 概念 , 需要操作某个逻辑库下的表时 , 也需要切换逻辑库 (use xxx)
核心属性:
  • name:指定自定义的逻辑库库名
  • checkSQLschema:在SQL语句操作时指定了数据库名称,执行时是否自动去除;true:自动去除,false:不自动去除
  • sqlMaxLimit:如果未指定limit进行查询,列表查询模式查询多少条记录

2.schema 中的table定义逻辑表

table 标签定义了 MyCat 中逻辑库 schema 下的逻辑表 , 所有需要拆分的表都需要在 table 标签中定
义 。
核心属性:
  • name:定义逻辑表表名,在该逻辑库下唯一
  • dataNode:定义逻辑表所属的dataNode,该属性需要与dataNode标签中name对应;多个 dataNode逗号分隔
  • rule:分片规则的名字,分片规则名字是在rule.xml中定义的
  • primaryKey:逻辑表对应真实表的主键
  • type:逻辑表的类型,目前逻辑表只有全局表和普通表,如果未配置,就是普通表;全局表,配置为 global
datanode 标签

核心属性:
  • name:定义数据节点名称
  • dataHost:数据库实例主机名称,引用自 dataHost 标签中name属性
  • database:定义分片所属数据库

datahost标签

 

该标签在 MyCat 逻辑库中作为底层标签存在 , 直接定义了具体的数据库实例、读写分离、心跳语句。
核心属性:
  • name:唯一标识,供上层标签使用
  • maxCon/minCon:最大连接数/最小连接数
  • balance:负载均衡策略,取值 0,1,2,3
  • writeType:写操作分发方式(0:写操作转发到第一个writeHost,第一个挂了,切换到第二 个;1:写操作随机分发到配置的writeHost
  • dbDriver:数据库驱动,支持 nativejdbc

rule.xml

rule.xml 中定义所有拆分表的规则 , 在使用过程中可以灵活的使用分片算法 , 或者对同一个分片算法
使用不同的参数 , 它让分片过程可配置化。主要包含两类标签: tableRule Function

server.xml

 server.xml配置文件包含了MyCat的系配置信息,主要有两个重要的标签:systemuser

1.system标签

 主要配置MyCat中的系统配置信息,对应的系统配置项及其含义,如下:

属性取值含义
charsetutf8设置Mycat的字符集, 字符集需要与MySQL的字符集保持一致
nonePasswordLogin0,10为需要密码登陆、1为不需要密码登陆 ,默认为0,设置为1则需要指定默认账户
useHandshakeV100,1使用该选项主要的目的是为了能够兼容高版本的jdbc驱动, 是否采用HandshakeV10Packet来与client进行通信, 1:是, 0:否
useSqlStat0,1开启SQL实时统计, 1 为开启 , 0 为关闭 ; 开启之后, MyCat会自动统计SQL语句的执行情况 ; mysql -h 127.0.0.1 -P 9066 -u root -p 查看MyCat执行的SQL, 执行效率比较低的SQL , SQL的整体执行情况、读写比例等 ; show @@sql ; show @@sql.slow ; show @@sql.sum ;
useGlobleTableCheck0,1是否开启全局表的一致性检测。1为开启 ,0为关闭 。
sqlExecuteTimeout1000SQL语句执行的超时时间 , 单位为 s ;
sequnceHandlerType0,1,2用来指定Mycat全局序列类型,0 为本地文件,1 为数据库方式,2 为时间戳列方式,默认使用本地文件方式,文件方式主要用于测试
sequnceHandlerPattern正则表达式必须带有MYCATSEQ或者 mycatseq进入序列匹配流程 注意MYCATSEQ_有空格的情况
subqueryRelationshipChecktrue,false子查询中存在关联查询的情况下,检查关联字段中是否有分片字段 .默认 false
useCompression0,1开启mysql压缩协议 , 0 : 关闭, 1 : 开启
fakeMySQLVersion5.5,5.6设置模拟的MySQL版本号
defaultSqlParser 由于MyCat的最初版本使用了FoundationDB的SQL解析器, 在MyCat1.3后增加了Druid解析器, 所以要设置defaultSqlParser属性来指定默认的解析器; 解析器有两个 : druidparser 和 fdbparser, 在MyCat1.4之后,默认是druidparser, fdbparser已经废除了
processors1,2....指定系统可用的线程数量, 默认值为CPU核心 x 每个核心运行线程数量; processors 会影响processorBufferPool, processorBufferLocalPercent, processorExecutor属性, 所有, 在性能调优时, 可以适当地修改processors值
processorBufferChunk 指定每次分配Socket Direct Buffer默认值为4096字节, 也会影响BufferPool长度, 如果一次性获取字节过多而导致buffer不够用, 则会出现警告, 可以调大该值
processorExecutor 指定NIOProcessor上共享 businessExecutor固定线程池的大小; MyCat把异步任务交给 businessExecutor线程池中, 在新版本的MyCat中这个连接池使用频次不高, 可以适当地把该值调小
packetHeaderSize 指定MySQL协议中的报文头长度, 默认4个字节
maxPacketSize 指定MySQL协议可以携带的数据最大大小, 默认值为16M
idleTimeout30指定连接的空闲时间的超时长度;如果超时,将关闭资源并回收, 默认30分钟
txIsolation1,2,3,4初始化前端连接的事务隔离级别,默认为 REPEATED_READ , 对应数字为3 READ_UNCOMMITED=1; READ_COMMITTED=2; REPEATED_READ=3; SERIALIZABLE=4;
sqlExecuteTimeout300执行SQL的超时时间, 如果SQL语句执行超时,将关闭连接; 默认300秒;
serverPort8066定义MyCat的使用端口, 默认8066
managerPort9066定义MyCat的管理端口, 默认9066

2.user标签

 配置MyCat中的用户、访问密码,以及用户针对于逻辑库、逻辑表的权限信息,具体的权限描述方式及配置说明如下:

 privileges 标签的注释放开。 在 privileges 下的schema标签中配置的dml属性配置的是逻辑库的权限。 在privilegesschema下的table标签的dml属性中配置逻辑表的权限。

MyCat分片

垂直拆分

场景
在业务系统中 , 涉及以下表结构 , 但是由于用户与订单每天都会产生大量的数据 , 单台服务器的数据
存储及处理能力是有限的 , 可以对数据库表进行拆分 , 原有的数据库表如下。
现在考虑将其进行垂直分库操作,将商品相关的表拆分到一个数据库服务器,订单表拆分的一个数据库服务器,用户及省市区表拆分到一个服务器。最终结构如下:

 

 

 配置

schema.xml

<schema name="SHOPPING" checkSQLschema="true" sqlMaxLimit="100"><table name="tb_goods_base" dataNode="dn1" primaryKey="id" /><table name="tb_goods_brand" dataNode="dn1" primaryKey="id" /><table name="tb_goods_cat" dataNode="dn1" primaryKey="id" /><table name="tb_goods_desc" dataNode="dn1" primaryKey="goods_id" /><table name="tb_goods_item" dataNode="dn1" primaryKey="id" /><table name="tb_order_item" dataNode="dn2" primaryKey="id" /><table name="tb_order_master" dataNode="dn2" primaryKey="order_id" /><table name="tb_order_pay_log" dataNode="dn2" primaryKey="out_trade_no" /><table name="tb_user" dataNode="dn3" primaryKey="id" /><table name="tb_user_address" dataNode="dn3" primaryKey="id" /><table name="tb_areas_provinces" dataNode="dn3" primaryKey="id"/><table name="tb_areas_city" dataNode="dn3" primaryKey="id"/><table name="tb_areas_region" dataNode="dn3" primaryKey="id"/>
</schema>
<dataNode name="dn1" dataHost="dhost1" database="shopping" />
<dataNode name="dn2" dataHost="dhost2" database="shopping" />
<dataNode name="dn3" dataHost="dhost3" database="shopping" />
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100"><heartbeat>select user()</heartbeat><writeHost host="master" url="jdbc:mysql://192.168.200.210:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp;characterEncoding=utf8" user="root" password="1234" />
</dataHost>
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100"><heartbeat>select user()</heartbeat><writeHost host="master" url="jdbc:mysql://192.168.200.213:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp;characterEncoding=utf8" user="root" password="1234" />
</dataHost>
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100"><heartbeat>select user()</heartbeat><writeHost host="master" url="jdbc:mysql://192.168.200.214:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp;characterEncoding=utf8" user="root" password="1234" />
</dataHost>

server.xml

<user name="root" defaultAccount="true"><property name="password">123456</property><property name="schemas">SHOPPING</property><!-- 表级 DML 权限设置 --><!-- <privileges check="true"> <schema name="DB01" dml="0110" > <table name="TB_ORDER" dml="1110"></table> </schema> </privileges> -->
</user>
<user name="user"><property name="password">123456</property><property name="schemas">SHOPPING</property><property name="readOnly">true</property>
</user>

重启mycat

逻辑表的概念都是mycat中的,所以table中的表在物理节点是不存在的,需要用mycat手动执行建表语句,mycat在根据配置的逻辑表与分片节点-配置的关系,在对应的物理节点创建对应的表。

测试

重新启动 MyCat 后,在 mycat 的命令行中,通过 source 指令导入表结构,以及对应的数据,查看数据分布情况。
source /root/shopping-table.sql 
source /root/shopping-insert.sql
将表结构及对应的测试数据导入之后,可以检查一下各个数据库服务器中的表结构分布情况。 检查是否和我们准备工作中规划的服务器一致。

1) 查询用户的收件人及收件人地址信息(包含省、市、区)

在MyCat的命令行中,当我们执行以下多表联查的SQL语句时,可以正常查询出数据。

select ua.user_id, ua.contact, p.province, c.city, r.area , ua.address from tb_user_address ua ,tb_areas_city c , tb_areas_provinces p ,tb_areas_region r where ua.province_id = p.provinceid and ua.city_id = c.cityid and ua.town_id = r.areaid ;

 2)查询每一笔订单及订单的收件地址信息(包含省、市、区)

实现该需求对应的 SQL 语句如下:
SELECT order_id , payment ,receiver, province , city , area FROM tb_order_master o , tb_areas_provinces p , tb_areas_city c , tb_areas_region r WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND o.receiver_region = r.areaid ;
但是现在存在一个问题,订单相关的表结构是在 192.168.200.213 数据库服务器中,而省市区的数
据库表是在 192.168.200.214 数据库服务器中。那么在 MyCat 中执行是否可以成功呢?

经过测试,我们看到, SQL 语句执行报错。原因就是因为 MyCat 在执行该 SQL 语句时,需要往具体的数据库服务器中路由,而当前没有一个数据库服务器完全包含了订单以及省市区的表结构,造成SQL 语句失败,报错。
对于上述的这种现象,我们如何来解决呢? 下面我们介绍的全局表,就可以轻松解决这个问题。

全局表

对于省、市、区 / 县表 tb_areas_provinces , tb_areas_city , tb_areas_region ,是属于
数据字典表,在多个业务模块中都可能会遇到,可以将其设置为全局表,利于业务操作。
修改 schema.xml 中的逻辑表的配置,修改 tb_areas_provinces tb_areas_city
tb_areas_region 三个逻辑表,增加 type 属性,配置为 global ,就代表该表是全局表,就会在
所涉及到的 dataNode 中创建给表。对于当前配置来说,也就意味着所有的节点中都有该表了。
<table name="tb_areas_provinces" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>
<table name="tb_areas_city" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/> 
<table name="tb_areas_region" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>

配置完毕后,重新启动 MyCat
1). 删除原来每一个数据库服务器中的所有表结构
2). 通过 source 指令,导入表及数据
source /root/shopping-table.sql 
source /root/shopping-insert.sql
3). 检查每一个数据库服务器中的表及数据分布,看到三个节点中都有这三张全局表
4). 然后再次执行上面的多表联查的 SQL 语句
SELECT order_id , payment ,receiver, province , city , area FROM tb_order_master o , tb_areas_provinces p , tb_areas_city c , tb_areas_region r WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND o.receiver_region = r.areaid ;

是可以正常执行成功的。
5). 当在 MyCat 中更新全局表的时候,我们可以看到,所有分片节点中的数据都发生了变化,每个节点的全局表数据时刻保持一致。

 水平拆分

场景
在业务系统中 , 有一张表 ( 日志表 ), 业务系统每天都会产生大量的日志数据 , 单台服务器的数据存
储及处理能力是有限的 , 可以对数据库表进行拆分

 

 配置

1) schema.xml

<schema name="ITCAST" checkSQLschema="true" sqlMaxLimit="100"><table name="tb_log" dataNode="dn4,dn5,dn6" primaryKey="id" rule="mod-long" />
</schema>
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
tb_log 表最终落在 3 个节点中,分别是 dn4 dn5 dn6 ,而具体的数据分别存储在 dhost1
dhost2 dhost3 itcast 数据库中。
2 ) server.xml
配置 root 用户既可以访问 SHOPPING 逻辑库,又可以访问 ITCAST 逻辑库。
<user name="root" defaultAccount="true"><property name="password">123456</property><property name="schemas">SHOPPING,ITCAST</property><!-- 表级 DML 权限设置 --><!-- <privileges check="true"> <schema name="DB01" dml="0110" > <table name="TB_ORDER" dml="1110"></table> </schema> </privileges> -->
</user>

测试

配置完毕后,重新启动 MyCat ,然后在 mycat 的命令行中,执行如下 SQL 创建表、并插入数据,查看数据分布情况。
CREATE TABLE tb_log
(id              bigint(20) NOT NULL COMMENT 'ID',model_name      varchar(200) DEFAULT NULL COMMENT '模块名',model_value     varchar(200) DEFAULT NULL COMMENT '模块值',return_value    varchar(200) DEFAULT NULL COMMENT '返回值',return_class    varchar(200) DEFAULT NULL COMMENT '返回值类型',operate_user    varchar(20)  DEFAULT NULL COMMENT '操作用户',operate_time    varchar(20)  DEFAULT NULL COMMENT '操作时间',param_and_value varchar(500) DEFAULT NULL COMMENT '请求参数名及参数值',operate_class   varchar(200) DEFAULT NULL COMMENT '操作类',operate_method  varchar(200) DEFAULT NULL COMMENT '操作方法',cost_time       bigint(20)   DEFAULT NULL COMMENT '执行方法耗时, 单位 ms',source          int(1)       DEFAULT NULL COMMENT '来源 : 1 PC , 2 Android , 3 IOS',PRIMARY KEY (id)
) ENGINE = InnoDBDEFAULT CHARSET = utf8mb4;
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('1','user','insert','success','java.lang.String','10001','2022-01-06 18:12:28','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro ller.UserController','insert','10',1); 
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('2','user','insert','success','java.lang.String','10001','2022-01-06 18:12:27','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro ller.UserController','insert','23',1); 
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('3','user','update','success','java.lang.String','10001','2022-01-06 18:16:45','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro ller.UserController','update','34',1); 
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('4','user','update','success','java.lang.String','10001','2022-01-06 18:16:45','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro ller.UserController','update','13',2); 
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('5','user','insert','success','java.lang.String','10001','2022-01-06 18:30:31','{\"age\":\"200\",\"name\":\"TomCat\",\"gender\":\"0\"}','cn.itcast.co ntroller.UserController','insert','29',3); 
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('6','user','find','success','java.lang.String','10001','2022-01-06 18:30:31','{\"age\":\"200\",\"name\":\"TomCat\",\"gender\":\"0\"}','cn.itcast.co ntroller.UserController','find','29',2);

因为分片规则为mod-long,取模,并且默认的配置个数为3

所以id=3,6 会数据会落到第一个节点

所以id=1,4 会数据会落到第二个节点

所以id=2,5 会数据会落到第三个节点

Mycat 分片规则

1.范围分片

根据指定的字段及其配置的范围与数据节点的对应情况, 来决定该数据属于哪一个分片。
缺点: 超过设置的上限时,需要配置defaultNode属性,否则会插入报错,需要增加分片节点以扩大上限

 配置

schema.xml

逻辑表配置

<table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" />

数据节点配置

<dataNode name="dn1" dataHost="dhost1" database="db01" /> 
<dataNode name="dn2" dataHost="dhost2" database="db01" /> 
<dataNode name="dn3" dataHost="dhost3" database="db01" />

rule.xml 分片规则配置

<tableRule name="auto-sharding-long"><rule><!-- 对应的数据库字段 --><columns>id</columns><algorithm>rang-long</algorithm></rule>
</tableRule>
<function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong"><property name="mapFile">autopartition-long.txt</property><!-- 超过配置的最大值时,会插入到默认的节点中 --><property name="defaultNode">0</property>
</function>

属性含义

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
mapFile
对应的外部配置文件
type
默认值为 0 ; 0 表示 Integer , 1 表示 String
defaultNode
默认节点 默认节点的所用 : 枚举分片时 , 如果碰到不识别的枚举值 , 就让它路由到默认节点 ; 如果没有默认值 , 碰到不识别的则报错 。
rule.xml 中配置分片规则时,关联了一个映射配置文件 autopartition-long.txt ,该配置文
件的配置如下:
# range start-end ,data node index 
# K=1000,M=10000. 
0-500M=0 
500M-1000M=1 
1000M-1500M=2
含义: 0-500 万之间的值,存储在 0 号数据节点 ( 数据节点的索引从 0 开始 ) 500 -1000 万之间的
数据存储在 1 号数据节点 ; 1000 -1500 万的数据节点存储在 2 号节点 ;

2.取模分片

根据指定的字段值与节点数量进行求模运算,根据运算结果, 来决定该数据属于哪一个分片。

配置

schema.xml

逻辑表配置:

<table name="tb_log" dataNode="dn4,dn5,dn6" primaryKey="id" rule="mod-long" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<tableRule name="mod-long"><rule><columns>id</columns><algorithm>mod-long</algorithm></rule>
</tableRule>
<function name="mod-long" class="io.mycat.route.function.PartitionByMod"><property name="count">3</property>
</function>

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
count
数据节点的数量
该分片规则,主要是针对于数字类型的字段适用。 在前面水平拆分的演示中,我们选择的就是取模分片。

3.一致性hash分片

所谓一致性哈希,相同的哈希因子计算值总是被划分到相同的分区表中,不会因为分区节点的增加而改变原来数据的分区位置,有效的解决了分布式数据的拓容问题。

配置

schema.xml

逻辑表配置:

<!-- 一致性hash --> 
<table name="tb_order" dataNode="dn4,dn5,dn6" rule="sharding-by-murmur" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<tableRule name="sharding-by-murmur"><rule><columns>id</columns><algorithm>murmur</algorithm></rule>
</tableRule>
<function name="murmur" class="io.mycat.route.function.PartitionByMurmurHash"><property name="seed">0</property><!-- 默认是0 --><property name="count">3</property><property name="virtualBucketTimes">160</property>
</function>

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
seed
创建 murmur_hash 对象的种子,默认 0
count
要分片的数据库节点数量,必须指定,否则没法分片
virtualBucketTimes
一个实际的数据库节点被映射为这么多虚拟节点,默认是 160 倍,也就是虚拟节点数是物理节点数的160
;virtualBucketTimes*count 就是虚拟结点数量 ;
weightMapFile
节点的权重,没有指定权重的节点默认是 1 。以 properties 文件的格式填写,以从0 开始到 count-1 的整数值也就是节点索引为 key ,以节点权重值为值。所有权重值必须是正整数,否则以1 代替
bucketMapPath
用于测试时观察各物理节点与虚拟节点的分布情况,如果指定了这个属性,会把虚拟节点的murmur hash 值与物理节点的映射按行输出到这个文件,没有默认值,如果不指定,就不会输出任何东西

 4.枚举分片

通过在配置文件中配置可能的枚举值 , 指定数据分布到不同数据节点上 , 本规则适用于按照省份、性
别、状态拆分数据等业务 。

 配置

schema.xml

逻辑表配置:

<!-- 枚举 --> 
<table name="tb_user" dataNode="dn4,dn5,dn6" rule="sharding-by-intfile-enumstatus" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<!-- 自己增加 tableRule -->
<tableRule name="sharding-by-intfile-enumstatus"><rule><!-- 根据status列的值作为枚举值 --><columns>status</columns><algorithm>hash-int</algorithm></rule>
</tableRule><function name="hash-int" class="io.mycat.route.function.PartitionByFileMap"><property name="defaultNode">2</property><property name="mapFile">partition-hash-int.txt</property>
</function>
partition-hash-int.txt ,内容如下 :
1=0 
2=1 
3=2

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
mapFile
对应的外部配置文件
type
默认值为 0 ; 0 表示 Integer , 1 表示 String
defaultNode
默认节点 ; 小于 0 标识不设置默认节点 , 大于等于 0 代表设置默认节点 ; 默认节点的所用: 枚举分片时 , 如果碰到不识别的枚举值 , 就让它路由到默认节点 ; 如果没有默认值 , 碰到不识别的则报错 。

5.应用指定算法

 运行阶段由应用自主决定路由到那个分片 , 直接根据字符子串(必须是数字)计算分片号。

  配置

schema.xml

逻辑表配置:

<!-- 应用指定算法 --> 
<table name="tb_app" dataNode="dn4,dn5,dn6" rule="sharding-by-substring" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<tableRule name="sharding-by-substring"><rule><columns>id</columns><algorithm>sharding-by-substring</algorithm></rule>
</tableRule><function name="sharding-by-substring" class="io.mycat.route.function.PartitionDirectBySubString"><property name="startIndex">0</property><!-- zero-based --><property name="size">2</property><property name="partitionCount">3</property><property name="defaultPartition">0</property>
</function>

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
startIndex
字符子串起始索引
size
字符长度
partitionCount
分区 ( 分片 ) 数量
defaultPartition
默认分片 ( 在分片数量定义时 , 字符标示的分片编号不在分片数量内时 , 使用默认分片)
示例说明 :
id=05-100000002 , 在此配置中代表根据 id 中从 startIndex=0 ,开始,截取 siz=2 位数字即
05 05 就是获取的分区,如果没找到对应的分片则默认分配到 defaultPartition

6.固定分片hash算法

该算法类似于十进制的求模运算,但是为二进制的操作,例如,取 id 的二进制低 10 位 与
1111111111 进行位 & 运算,位与运算最小值为 0000000000 ,最大值为 1111111111 ,转换为十
进制,也就是位于0-1023之间。

特点:
  • 如果是求模,连续的值,分别分配到各个不同的分片;但是此算法会将连续的值可能分配到相同的分片,降低事务处理的难度。
  • 可以均匀分配,也可以非均匀分配。
  • 分片字段必须为数字类型。

  配置

schema.xml

逻辑表配置:

<!-- 固定分片hash算法 --> 
<table name="tb_longhash" dataNode="dn4,dn5,dn6" rule="sharding-by-long-hash" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<tableRule name="sharding-by-long-hash"><rule><columns>id</columns><algorithm>sharding-by-long-hash</algorithm></rule>
</tableRule>
<!-- 分片总长度为1024,count与length数组长度必须一致; -->
<function name="sharding-by-long-hash" class="io.mycat.route.function.PartitionByLong"><!-- 总共三个分片节点 --><property name="partitionCount">2,1</property><!-- 前两个存储256个,第三个512个,第一个0-255,第二个256-511,第三个512-1023 --><property name="partitionLength">256,512</property>
</function>

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
partitionCount
分片个数列表
partitionLength
分片范围列表
约束 :
1). 分片长度 : 默认最大 2^10 , 1024 ;
2). count, length 的数组长度必须是一致的 ;
以上分为三个分区 :0-255,256-511,512-1023

7.字符串hash解析算法

 截取字符串中的指定位置的子字符串, 进行hash算法, 算出分片。

  配置

schema.xml

逻辑表配置:

<!-- 字符串hash解析算法 --> 
<table name="tb_strhash" dataNode="dn4,dn5" rule="sharding-by-stringhash" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />

rule.xml分片规则配置:

<tableRule name="sharding-by-stringhash"><rule><columns>name</columns><algorithm>sharding-by-stringhash</algorithm></rule>
</tableRule><function name="sharding-by-stringhash" class="io.mycat.route.function.PartitionByString"><property name="partitionLength">512</property><!-- zero-based --><property name="partitionCount">2</property><property name="hashSlice">0:2</property>
</function>

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
partitionLength
hash 求模基数 ; length*count=1024 ( 出于性能考虑 )
partitionCount
分区数
hashSlice
hash 运算位 , 根据子字符串的 hash 运算 ; 0 代表 str.length()
, -1 代表 str.length()-1 , 大于 0 只代表数字自身 ; 可以理解
substring start end ), start 0 则只表示 0

 8.按天分片算法

按照日期及对应的时间周期来分片。

  配置

schema.xml

逻辑表配置:

<!-- 按天分片 --> 
<table name="tb_datepart" dataNode="dn4,dn5,dn6" rule="sharding-by-date" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<tableRule name="sharding-by-date"><rule><columns>create_time</columns><algorithm>sharding-by-date</algorithm></rule>
</tableRule><function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate"><property name="dateFormat">yyyy-MM-dd</property><property name="sBeginDate">2022-01-01</property><property name="sEndDate">2022-01-30</property><property name="sPartionDay">10</property>
</function><!--从开始时间开始,每10天为一个分片,到达结束时间之后,会重复开始分片插入 配置表的 dataNode 的分片,
必须和分片规则数量一致,例如 2022-01-01 到 2022-12-31 ,每 10天一个分片,一共需要37个分片。 -->

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
dateFormat
日期格式
sBeginDate
开始日期
sEndDate
结束日期,如果配置了结束日期,则代码数据到达了这个日期的分片后,会重复从开始分片插入
sPartionDay
分区天数,默认值 10 ,从开始日期算起,每个 10 天一个分区

9.自然月分片

使用场景为按照月份来分片 , 每个自然月为一个分片

 配置

schema.xml

逻辑表配置:

<!-- 按自然月分片 --> 
<table name="tb_monthpart" dataNode="dn4,dn5,dn6" rule="sharding-by-month" />

 数据节点配置:

<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

rule.xml分片规则配置:

<tableRule name="sharding-by-month"><rule><columns>create_time</columns><algorithm>partbymonth</algorithm></rule>
</tableRule><function name="partbymonth" class="io.mycat.route.function.PartitionByMonth"><property name="dateFormat">yyyy-MM-dd</property><property name="sBeginDate">2022-01-01</property><property name="sEndDate">2022-03-31</property>
</function>
<!--从开始时间开始,一个月为一个分片,到达结束时间之后,会重复开始分片插入 配置表的 dataNode 的分片,
必须和分片规则数量一致,例如 2022-01-01 到 2022-12-31 ,一 共需要12个分片。 -->

属性说明:

属性
描述
columns
标识将要分片的表字段
algorithm
指定分片函数与 function 的对应关系
class
指定该分片算法对应的类
dateFormat
日期格式
sBeginDate
开始日期
sEndDate
结束日期,如果配置了结束日期,则代码数据到达了这个日期的分片后,会重复从开始分片插入

说明:因为只有3个分片节点,所以添加4月日期的数据时会插入第一个节点,5月插入第二个节点,6月插入第三个节点,以此类推 

Mycat 管理 和 监控

MyCat 管理及监控_naki_bb的博客-CSDN博客


http://chatgpt.dhexx.cn/article/TTDN2EuK.shtml

相关文章

MySQL分库分表原理

前言 ❤Java学习路线个人总结-博客 ❤欢迎点赞&#x1f44d;收藏⭐留言 &#x1f4dd;分享给需要的小伙伴 文章目录 前言1、为什么要分库分表02、分库分表03、不停机分库分表数据迁移4、分库分表实现5、读写分离实现 1、为什么要分库分表 分库分表目的&#xff1a;解决高并发&a…

mysql分库分表(二)

微信搜索&#xff1a;“二十同学” 公众号&#xff0c;欢迎关注一条不一样的成长之路 一种可以避免数据迁移的分库分表scale-out扩容模式 一种可以避免数据迁移的分库分表scale-out扩容方式 目前绝大多数应用采取的两种分库分表规则 mod方式dayofweek系列日期方式&#xff…

Mysql分库分表方案

相关文章&#xff1a; 1、 使用Spring AOP实现MySQL数据库读写分离案例分析 2、MySQL5.6 数据库主从&#xff08;Master/Slave&#xff09;同步安装与配置详解 3、MySQL主从复制的常见拓扑、原理分析以及如何提高主从复制的效率总结 4、使用mysqlreplicate命令快速搭建 Mysql 主…

mysql-分库分表

1、为什么要分库分表 1、为什么要分库分表 出现数据库瓶颈&#xff0c;比如IO瓶颈&#xff0c;CPU瓶颈 1、IO瓶颈 &#xff08;1&#xff09;磁盘读IO瓶颈- 数据体积比较大&#xff1a;大量的写操作&#xff0c;磁盘IO读写必然慢&#xff0c;效率低大量的读操作&#xff0c;…

mysql分库分表(一)

微信搜索&#xff1a;“二十同学” 公众号&#xff0c;欢迎关注一条不一样的成长之路 数据库分库分表策略的具体实现方案 相关文章&#xff1a; 1、 使用Spring AOP实现MySQL数据库读写分离案例分析 2、MySQL5.6 数据库主从&#xff08;Master/Slave&#xff09;同步安装与…

【MySQL】MySQL分库分表详解

目录 一、前言 1.1 数据量 1.2 磁盘 1.3 数据库连接 二、垂直拆分 or 水平拆分&#xff1f; 三、垂直拆分 3.1 垂直分库 3.2 垂直分表 3.3 垂直拆分的优缺点 四、水平拆分 4.1 水平分表 4.2 水平分库分表 4.3 水平拆分的优缺点 五、几种常用的分库分表的策略 5.1 根据数值范围 …

MySQL 分库分表

MySQL分库分表 概念 读写分离优化了互联网读多写少场景下的性能问题&#xff0c;考虑一个业务场景&#xff0c;如果读库的数据规模非常大&#xff0c;除了增加多个从库之外&#xff0c;还有其他的手段吗&#xff1f;实现数据库高可用&#xff0c;还有另外一个撒手锏&#xff…

MySQL之分库分表

为什么要分库分表 用户请求量太大 单服务器TPS、内存、IO都是有上限的&#xff0c;需要将请求打散分布到多个服务器 单库数据量太大 单库处理能力有限&#xff1b;单库所在服务器的磁盘空间有限&#xff1b;单库的操作IO有瓶颈 单表数据量太大 查询、插入、更新操作都会变慢&am…

【Mysql】分库分表

【Mysql】分库分表 文章目录 【Mysql】分库分表1. 介绍2. 拆分策略2.1 垂直拆分2.1.1 垂直分库2.1.2 垂直分表 2.2 水平拆分2.2.1 水平分库2.2.2 水平分表 1. 介绍 采用单数据库进行数据存储存在以下瓶颈&#xff1a; IO瓶颈&#xff1a;热点数据太多&#xff0c;数据库缓存不…

一文搞懂MySQL数据库分库分表

如果数据量过大&#xff0c;大家一般会分库分表。分库需要注意的内容比较少&#xff0c;但分表需要注意的内容就多了。 工作这几年没遇过数据量特别大的业务&#xff0c;那些过亿的数据&#xff0c;因为索引设置合理&#xff0c;单表性能没有影响&#xff0c;所以实战中一直没…

Mysql·分库分表

Mysql分库分表 在mysql中新建数据库用以表分库分表mycat解压后配置文件参数server.xml 主要配置mycat服务的参数&#xff0c;比如端口号&#xff0c;myact用户名和密码使用的逻辑数据库等rule.xml 主要配置路由策略&#xff0c;主要有分片的片键&#xff0c;拆分的策略&#xf…

MySQL分库分表,何时分?怎么分?

&#x1f468;‍&#x1f393; 博主介绍&#xff1a; IT邦德&#xff0c;江湖人称jeames007&#xff0c;10年DBA工作经验 中国DBA联盟(ACDU)成员&#xff0c;目前从事DBA及程序编程 &#xff08;Web\java\Python&#xff09;工作&#xff0c;主要服务于生产制造 现拥有 Oracle …

MySQL 分库分表实践

文章目录 一、为什么要分库分表二、库表太大产生的问题三、垂直拆分1. 垂直分库2. 垂直分表 四、水平分表1. 配置水平分表2. 测试水平分表 一、为什么要分库分表 数据库架构演变 刚开始多数项目用单机数据库就够了&#xff0c;随着服务器流量越来越大&#xff0c;面对的请求也…

MySQL如何分库分表

1. 我们为什么需要分库分表 在分库分表之前&#xff0c;就需要考虑为什么需要拆分。我们做一件事&#xff0c;肯定是有充分理由的。所以得想好分库分表的理由是什么。我们现在就从两个维度去思考它&#xff0c;为什么要分库&#xff1f;为什么要分表&#xff1f; 1.1 为什么要…

MYSQL 之 分库分表

分库分表 关系型数据库本身⽐较容易成为系统瓶颈&#xff0c;单机存储容量、连接数、处理能⼒都有限。当单表的数据量 达到2000W或100G以后&#xff0c;由于查询维度较多&#xff0c;即使添加从库、优化索引&#xff0c;做很多操作时性能仍下降严 重。此时就要考虑对其进⾏切分…

MySQL-分库分表详解(一)

♥️作者&#xff1a;小刘在C站 ♥️个人主页&#xff1a; 小刘主页 ♥️努力不一定有回报&#xff0c;但一定会有收获加油&#xff01;一起努力&#xff0c;共赴美好人生&#xff01; ♥️学习两年总结出的运维经验&#xff0c;以及思科模拟器全套网络实验教程。专栏&#xf…

如何实现MYSQL分库分表

我们学习了在高并发下数据库的一种优化方案&#xff1a;读写分离&#xff0c;它就是依靠主从复制的技术使得数据库实现了数据复制为多份&#xff0c;增强了抵抗大量并发读请求的能力&#xff0c;提升了数据库的查询性能的同时&#xff0c;也提升了数据的安全性。当某一个数据库…

MySQL 分库分表,写得太好了!

https://www.toutiao.com/a6603492496779510276/?tt_frommobile_qq&utm_campaignclient_share&timestamp1549497188&appnews_article&utm_sourcemobile_qq&iid59568063679&utm_mediumtoutiao_android&group_id6603492496779510276 Mysql分库分表…

MySQL数据库怎么进行分库分表?

▲ 点击上方“分布式实验室”关注公众号 回复“1”抽取纸质技术书 提起分库分表&#xff0c;对于大部分服务器开发来说&#xff0c;其实并不是一个新鲜的名词。随着业务的发展&#xff0c;我们表中的数据量会变的越来越大&#xff0c;字段也可能随着业务复杂度的升高而逐渐增多…

超详细的mysql分库分表方案

我们都知道&#xff0c;随着业务量的增长&#xff0c;数据量也会随之增加&#xff0c;这个时候就需要关注业务大表&#xff0c;因为大表会影响查询性能&#xff0c;DDL变更时间很长&#xff0c;影响业务的可用性&#xff0c;同时导致从库延迟很大&#xff0c;如果业务做了读写分…