MySql-Learning
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
一、基础篇
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
1、Mysql概述
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
在这一章节,我们主要介绍两个部分,数据库相关概念及MySQL数据库的介绍、下载、安装、启动及连接。
1.1 数据库相关概念
在这一部分,我们先来讲解三个概念:数据库、数据库管理系统、SQL。
名称 | 全称 | 简称 |
---|---|---|
数据库 | 存储数据的仓库,数据是有组织的进行存储 | DataBase(DB) |
数据库管理系统 | 操纵和管理数据库的大型软件 | DataBase Management System (DBMS) |
SQL | 操作关系型数据库的编程语言,定义了一套操作关系型数据库统一标准 | Structured Query Language (SQL) |
而目前主流的关系型数据库管理系统的市场占有率排名如下:
Oracle:大型的收费数据库,Oracle公司产品,价格昂贵。
MySQL:开源免费的中小型数据库,后来Sun公司收购了MySQL,而Oracle又收购了Sun公司。目前Oracle推出了收费版本的MySQL,也提供了免费的社区版本。
SQL Server:Microsoft 公司推出的收费的中型数据库,C#、.net等语言常用。
PostgreSQL:开源免费的中小型数据库。
DB2:IBM公司的大型收费数据库产品。
SQLLite:嵌入式的微型数据库。Android内置的数据库采用的就是该数据库。
MariaDB:开源免费的中小型数据库。是MySQL数据库的另外一个分支、另外一个衍生产品,与 MySQL数据库有很好的兼容性。
而不论我们使用的是上面的哪一个关系型数据库,最终在操作时,都是使用SQL语言来进行统一操作,因为我们前面讲到SQL语言,是操作关系型数据库的 统一标准 。所以即使我们现在学习的是MySQL,假如我们以后到了公司,使用的是别的关系型数据库,如:Oracle、DB2、SQLServer,也完全不用担心,因为操作的方式都是一致的。
1.2 MySQL数据库
(1)版本
MySQL官方提供了两种不同的版本:
社区版本(MySQL Community Server)免费, MySQL不提供任何技术支持
商业版本(MySQL Enterprise Edition)收费,可以使用30天,官方提供技术支持
本课程采用的是MySQL最新的社区版-MySQL Community Server 8.0.26
(2)下载
选择社区版本:https://dev.mysql.com/downloads/
下载地址: https://downloads.mysql.com/archives/installer/
也可以使用课程资料中提供的MySQL的安装包:
(3)安装
1) 双击官方下来的安装包文件
2) 根据安装提示进行安装
安装MySQL的相关组件,这个过程可能需要耗时几分钟,耐心等待。
输入MySQL中root用户的密码,一定记得记住该密码
(4)配置环境变量
安装好MySQL之后,还需要配置环境变量,这样才可以在任何目录下连接MySQL。
1). 在此电脑上,右键选择属性
2). 点击左侧的 "高级系统设置",选择环境变量
3). 找到 Path 系统变量, 点击 "编辑"
4). 选择 "新建" , 将MySQL Server的安装目录下的bin目录添加到环境变量
(5)MySQL卸载文档-Windows版
1. 停止MySQL服务
win+R 打开运行,输入 services.msc 点击 "确定" 调出系统服务。
2. 卸载MySQL相关组件
打开控制面板 ---> 卸载程序 ---> 卸载MySQL相关所有组件
3. 删除MySQL安装目录
4. 删除MySQL数据目录
数据存放目录是在 C:\ProgramData\MySQL,直接将该文件夹删除。
5. 再次打开服务,查看是否有MySQL卸载残留
如果已将MySQL卸载,但是通过任务管理器--->服务,查看到MySQL服务仍然残留在系统服务里。
解决办法:
以管理员方式运行cmd命令行,输入以下命令:
sc delete 服务名称(如MySQL80)
这样可以实现删除服务。
(6)Mysql服务的启停
MySQL安装完成之后,在系统启动时,会自动启动MySQL服务,我们无需手动启动了。
当然,也可以手动的通过指令启动停止,以管理员身份运行cmd,进入命令行执行如下指令:
- net start mysql80
- net stop mysql80
net start mysql80
net stop mysql80
注意 : 上述的 mysql80 是我们在安装MySQL时,默认指定的mysql的系统服务名,不是固
定的,如果未改动,默认就是mysql80。
(7)客户端连接
① 方式一:使用MySQL提供的客户端命令行工具
② 方式二:使用系统自带的命令行工具执行指令
mysql [-h 127.0.0.1] [-P 3306] -u root -p
参数:
-h : MySQL服务所在的主机IP
-P : MySQL服务端口号, 默认3306
-u : MySQL数据库用户名
-p : MySQL数据库用户名对应的密码
[]内为可选参数,如果需要连接远程的MySQL,需要加上这两个参数来指定远程主机IP、端口,如果
连接本地的MySQL,则无需指定这两个参数
注意: 使用这种方式进行连接时,需要安装完毕后配置PATH环境变量。
(8)数据模型
①关系型数据库(RDBMS)
概念:建立在关系模型基础上,由多张相互连接的二维表组成的数据库。
而所谓二维表,指的是由行和列组成的表,如下图(就类似于Excel表格数据,有表头、有列、有行,还可以通过一列关联另外一个表格中的某一列数据)。我们之前提到的MySQL、Oracle、DB2、SQLServer这些都是属于关系型数据库,里面都是基于二维表存储数据的。简单说,基于二维表存储数据的数据库就成为关系型数据库,不是基于二维表存储数据的数据库,就是非关系型数据库。
特点:
使用表存储数据,格式统一,便于维护。
使用SQL语言操作,标准统一,使用方便。
② 数据模型
MySQL是关系型数据库,是基于二维表进行数据存储的,具体的结构图下:
- 我们可以通过MySQL客户端连接数据库管理系统DBMS,然后通过DBMS操作数据库。
- 可以使用SQL语句,通过数据库管理系统操作数据库,以及操作数据库中的表结构及数据。
- 一个数据库服务器中可以创建多个数据库,一个数据库中也可以包含多张表,而一张表中又可以包含多行记录。
(9)小结
2、🌟 SQL
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
全称 Structured Query Language,结构化查询语言。操作关系型数据库的编程语言,定义了一套操作关系型数据库统一标准 。
2.1 SQL通用语法
在学习具体的SQL语句之前,先来了解一下SQL语言的同于语法。
- SQL语句可以单行或多行书写,以分号结尾。
- SQL语句可以使用空格/缩进来增强语句的可读性。
- MySQL数据库的SQL语句不区分大小写,关键字建议使用大写。
- 注释:
- 单行注释:-- 注释内容 或 # 注释内容
- 多行注释:/* 注释内容 */
2.2 SQL分类
SQL语句,根据其功能,主要分为四类:DDL、DML、DQL、DCL。
分类 | 全称 | 说明 |
---|---|---|
DDL | Data Definition Language | 数据定义语言,用来定义数据库对象(数据库,表,字段) |
DML | Data Manipulation Language | 数据操作语言,用来对数据库表中的数据进行增删改 |
DQL | Data Query Language | 数据查询语言,用来查询数据库中表的记录 |
DCL | Data Control Language | 数据控制语言,用来创建数据库用户、控制数据库的访问权限 |
2.3 🌟DDL-数据定义
Data Definition Language,数据定义语言,用来定义数据库对象(数据库,表,字段) 。
(1)数据库操作
①查询所有数据库
show databases;
②查询当前数据库
select database();
③创建数据库
create database [ if not exists ] 数据库名 [ default charset 字符集 ] [ collate 排序
规则 ] ;
案例:
**第一步:**创建一个itcast数据库, 使用数据库默认的字符集。
create database itcast;
在同一个数据库服务器中,不能创建两个名称相同的数据库,否则将会报错。
可以通过if not exists 参数来解决这个问题,数据库不存在, 则创建该数据库,如果存在,则不创建。
create database if not extists itcast;
**第二步:**创建一个itheima数据库,并且指定字符集
create database itheima default charset utf8mb4;
④删除数据库
drop database [ if exists ] 数据库名 ;
如果删除一个不存在的数据库,将会报错。此时,可以加上参数 if exists ,如果数据库存在,再执行删除,否则不执行删除。
⑥切换数据库
use 数据库名 ;
我们要操作某一个数据库下的表时,就需要通过该指令,切换到对应的数据库下,否则是不能操作的。比如,切换到itcast数据,执行如下SQL:
use itcast;
(2)🌟 表操作
①表操作-查询创建
1)查询当前数据库所有表-show
show tables;
比如,我们可以切换到sys这个系统数据库,并查看系统数据库中的所有表结构。
use sys;
show tables;
2)查看指定表结构-desc
desc 表名 ;
通过这条指令,我们可以查看到指定表的字段,字段的类型、是否可以为NULL,是否存在默认值等信息。
3)查询指定表的建表语句-show create table
show create table 表名 ;
通过这条指令,主要是用来查看建表语句的,而有部分参数我们在创建表的时候,并未指定也会查询到,因为这部分是数据库的默认值,如:存储引擎、字符集等。
4)创建表结构-create table
CREATE TABLE 表名(
字段1 字段1类型 [ COMMENT 字段1注释 ],
字段2 字段2类型 [COMMENT 字段2注释 ],
字段3 字段3类型 [COMMENT 字段3注释 ],
......
字段n 字段n类型 [COMMENT 字段n注释 ]
) [ COMMENT 表注释 ] ;
比如,我们创建一张表 tb_user ,对应的结构如下,那么建表语句为:
create table tb_user(
id int comment '编号',
name varchar(50) comment '姓名',
age int comment '年龄',
gender varchar(1) comment '性别'
) comment '用户表';
②🌟表操作-数据类型
在上述的建表语句中,我们在指定字段的数据类型时,用到了int ,varchar,那么在MySQL中除了以上的数据类型,还有哪些常见的数据类型呢? 接下来,我们就来详细介绍一下MySQL的数据类型。MySQL中的数据类型有很多,主要分为三类:数值类型、字符串类型、日期时间类型。
1)数值类型
类型 | 大小 | 有符号(SIGNED)范围 | 无符号(UNSIGNED)范围 | 描述 |
---|---|---|---|---|
TINYINT | 1 byte | (-128,127) | (0,255) | 小整数值 |
SMALLINT | 2 bytes | (-32768,32767) | (0,65535) | 大整数值 |
MEDIUMINT | 3 bytes | (-8388608,8388607) | (0,16777215) | 大整数值 |
INT或INTEGER | 4 bytes | (-2147483648,2147483647) | (0,4294967295) | 大整数值 |
BIGINT | 8 bytes | (-2^63,2^63-1) | (0,2^64-1) | 极大整数值 |
FLOAT | 4 bytes | (-3.402823466 E+38,3.402823466351 E+38) | 0 和 (1.175494351 E-38,3.402823466 E+38) | 单精度浮点数值 |
DOUBLE | 8 bytes | (-1.7976931348623157 E+308,1.7976931348623157 E+308) | 0 和 (2.2250738585072014 E-308,1.7976931348623157 E+308) | 双精度浮点数值 |
DECIMAL | 依赖于M(精度)和D(标度)的值 | 依赖于M(精度)和D(标度)的值 | 小数值(精确定点数) |
如:
1). 年龄字段 -- 不会出现负数, 而且人的年龄不会太大
age tinyint unsigned 年龄不会出现负数,则用无符号tinyint
2). 分数 -- 总分100分, 最多出现一位小数
score double(4,1)
2)字符串类型
类型 | 大小 | 描述 |
---|---|---|
CHAR | 0-255 bytes | 定长字符串 |
VARCHAR | 0-65535 bytes | 变长字符串 |
TINYBLOB | 0-255 bytes | 不超过255个字符的二进制数据 |
TINYTEXT | 0-255 bytes | 短文本字符串 |
BLOB | 0-65 535 bytes | 二进制形式的长文本数据 |
TEXT | 0-65 535 bytes | 长文本数据 |
MEDIUMBLOB | 0-16 777 215 bytes | 二进制形式的中等长度文本数据 |
MEDIUMTEXT | 0-16 777 215 bytes | 中等长度文本数据 |
LONGBLOB | 0-4 294 967 295 bytes | 二进制形式的极大文本数据 |
LONGTEXT | 0-4 294 967 295 bytes | 极大文本数据 |
char 与 varchar 都可以描述字符串,char是定长字符串,指定长度多长,就占用多少个字符,和字段值的长度无关 。而varchar是变长字符串,指定的长度为最大占用长度 。相对来说,char的性能会更高些。,原因是varchar会根据内容的大小计算需要的内存空间,消耗性能。
如:
- 用户名 username ------> 长度不定, 最长不会超过50
- username varchar(50)
- 性别 gender ---------> 存储值, 不是男,就是女
- gender char(1)
- 手机号 phone --------> 固定长度为11
- phone char(11)
3)日期类型
类型 | 大小 | 范围 | 格式 | 描述 |
---|---|---|---|---|
DATE | 3 | 1000-01-01 至 9999-12-31 | YYYY-MM-DD | 日期值 |
TIME | 3 | -838:59:59 至 838:59:59 | HH:MM:SS | 时间值或持续时间 |
YEAR | 1 | 1901 至 2155 | YYYY | 年份值 |
DATETIME | 8 | 1000-01-01 00:00:00 至 9999-12-31 23:59:59 | YYYY-MM-DD HH:MM:SS | 混合日期和时间值 |
TIMESTAMP | 4 | 1970-01-01 00:00:01 至 2038-01-19 03:14:07 | YYYY-MM-DD HH:MM:SS | 混合日期和时间值,时间戳 |
- 生日字段 birthday -DATE
- birthday date
- 创建时间 createtime
- createtime datetime
③表操作-案例
对应的建表语句如下:
create table emp(
id int comment '编号',
workno varchar(10) comment '工号',
name varchar(10) comment '姓名',
gender char(1) comment '性别',
age tinyint unsigned comment '年龄',
idcard char(18) comment '身份证号',
entrydate date comment '入职时间'
) comment '员工表';
SQL语句编写完毕之后,就可以在MySQL的命令行中执行SQL,然后也可以通过 desc 指令查询表结构信息:
表结构创建好了,里面的name字段是varchar类型,最大长度为10,也就意味着如果超过10将会报错,如果我们想修改这个字段的类型 或 修改字段的长度该如何操作呢?接下来再来讲解DDL语句中,如何操作表字段。
④表操作-修改-alter table
1)添加字段-add
ALTER TABLE 表名 ADD 字段名 类型 (长度) [ COMMENT 注释 ] [ 约束 ];
案例:
为emp表增加一个新的字段”昵称”为nickname,类型为varchar(20)
ALTER TABLE emp ADD nickname varchar(20) COMMENT '昵称';
2)修改数据类型-modify
ALTER TABLE 表名 MODIFY 字段名 新数据类型 (长度);
3)修改字段名和字段类型-change
ALTER TABLE 表名 CHANGE 旧字段名 新字段名 类型 (长度) [ COMMENT 注释 ] [ 约束 ];
案例:
将emp表的nickname字段修改为username,类型为varchar(30)
ALTER TABLE emp CHANGE nickname username varchar(30) COMMENT '昵称';
4)删除字段-drop
ALTER TABLE 表名 DROP 字段名;
案例:
将emp表的字段username删除
ALTER TABLE emp DROP username;
5)修改表名-rename to
ALTER TABLE 表名 RENAME TO 新表名;
案例:
将emp表的表名修改为 employee
ALTER TABLE emp RENAME TO employee;
⑤表操作删除-drop table
1)删除表-drop
DROP TABLE [ IF EXISTS ] 表名;
可选项 IF EXISTS 代表,只有表名存在时才会删除该表,表名不存在,则不执行删除操作(如果不
加该参数项,删除一张不存在的表,执行将会报错)。
案例:
如果tb_user表存在,则删除tb_user表
DROP TABLE IF EXISTS tb_user;
2)删除指定表, 并重新创建表-druncate
格式化表
TRUNCATE TABLE 表名;
注意: 在删除表的时候,表中的全部数据也都会被删除。
(3)小结
2.4 图形化界面工具
上述,我们已经讲解了通过DDL语句,如何操作数据库、操作表、操作表中的字段,而通过DDL语句执
行在命令进行操作,主要存在以下两点问题:
1).会影响开发效率 ;
2). 使用起来,并不直观,并不方便 ;
所以呢,我们在日常的开发中,会借助于MySQL的图形化界面,来简化开发,提高开发效率。而目前
mysql主流的图形化界面工具,有以下几种:
而本次课程中,选择最后一种DataGrip,这种图形化界面工具,功能更加强大,界面提示更加友好,
是我们使用MySQL的不二之选。接下来,我们来介绍一下DataGrip该如何安装、使用。
(1)安装
①找到资料中准备好的安装包,双击开始安装
②点击next,一步一步的完成安装
选择DataGrip的安装目录,然后选择下一步
下一步,执行安装
(2)使用
①添加数据源
参考图示, 一步步操作即可
配置以及驱动jar包下载完毕之后,就可以点击 "Test Connection" 就可以测试,是否可以连接MySQL,如果出现 "Successed",就表名连接成功了 。
②展示所有数据库
连接上了MySQL服务之后,并未展示出所有的数据库,此时,我们需要设置,展示所有的数据库,具体操作如下:
③创建数据库
注意:
以下两种方式都可以创建数据库:
A. create database db01;
B. create schema db01;
④创建表
在指定的数据库上面右键,选择new --> Table
⑤修改表结构
在需要修改的表上,右键选择 "Modify Table..."
如果想增加字段,直接点击+号,录入字段信息,然后点击Execute即可。
如果想删除字段,直接点击-号,就可以删除字段,然后点击Execute即可。
如果想修改字段,双击对应的字段,修改字段信息,然后点击Execute即可。
如果要修改表名,或表的注释,直接在输入框修改,然后点击Execute即可。
⑥在DataGrip中执行SQL语句
在指定的数据库上,右键,选择 New --> Query Console
然后就可以在打开的Query Console控制台,并在控制台中编写SQL,执行SQL。
2.5 🌟DML-数据操作
DML英文全称是Data Manipulation Language(数据操作语言),用来对数据库中表的数据记录进
行增、删、改操作。
- 添加数据(INSERT)
- 修改数据(UPDATE)
- 删除数据(DELETE)
(1)添加数据-insert
①给指定字段添加数据
INSERT INTO 表名 (字段名1, 字段名2, ...) VALUES (值1, 值2, ...);
案例: 给employee表所有的字段添加数据 ;
insert into employee(id,workno,name,gender,age,idcard,entrydate)
values(1,'1','Itcast','男',10,'123456789012345678','2000-01-01');
插入数据完成之后,我们有两种方式,查询数据库的数据:
A. 方式一
在左侧的表名上双击,就可以查看这张表的数据。
B. 方式二
可以直接一条查询数据的SQL语句, 语句如下:
select * from employee;
案例: 给employee表所有的字段添加数据
执行如下SQL,添加的年龄字段值为-1。
insert into employee(id,workno,name,gender,age,idcard,entrydate)
values(1,'1','Itcast','男',-1,'123456789012345678','2000-01-01');
执行上述的SQL语句时,报错了,具体的错误信息如下:
因为 employee 表的age字段类型为 tinyint,而且还是无符号的 unsigned ,所以取值只能在
0-255 之间。
②给全部字段添加数据
INSERT INTO 表名 VALUES (值1, 值2, ...);
案例:插入数据到employee表,具体的SQL如下:
insert into employee values(2,'2','张无忌','男',18,'123456789012345670','2005-01-
01');
③批量添加数据
INSERT INTO 表名 (字段名1, 字段名2, ...) VALUES (值1, 值2, ...), (值1, 值2, ...), (值
1, 值2, ...) ;
INSERT INTO 表名 VALUES (值1, 值2, ...), (值1, 值2, ...), (值1, 值2, ...) ;
案例:批量插入数据到employee表,具体的SQL如下:
insert into employee values(3,'3','韦一笑','男',38,'123456789012345670','2005-01-01'),(4,'4','赵敏','女',18,'123456789012345670','2005-01-01');
注意事项:
- 插入数据时,指定的字段顺序需要与值的顺序是一一对应的。
- 字符串和日期型数据应该包含在引号中。
- 插入的数据大小,应该在字段的规定范围内。
(2)修改数据-update
修改数据的具体语法为:
UPDATE 表名 SET 字段名1 = 值1 , 字段名2 = 值2 , .... [ WHERE 条件 ] ;
案例:
A. 修改id为1的数据,将name修改为itheima
update employee set name = 'itheima' where id = 1;
B. 修改id为1的数据, 将name修改为小昭, gender修改为 女
update employee set name = '小昭' , gender = '女' where id = 1;
C. 将所有的员工入职日期修改为 2008-01-01
update employee set entrydate = '2008-01-01';
注意事项:
修改语句的条件可以有,也可以没有,如果没有条件,则会修改整张表的所有数据。
(3)删除数据-delete
删除数据的具体语法为:
DELETE FROM 表名 [ WHERE 条件 ] ;
案例:
A. 删除gender为女的员工
delete from employee where gender = '女';
B. 删除所有员工
delete from employee;
注意事项:
DELETE 语句的条件可以有,也可以没有,如果没有条件,则会删除整张表的所有数
据。
DELETE 语句不能删除某一个字段的值(可以使用UPDATE,将该字段值置为NULL即
可)。
当进行删除全部数据操作时,datagrip会提示我们,询问是否确认删除,我们直接点击
Execute即可。
(4)小结
2.6 🌟DQL-数据查询
DQL英文全称是Data Query Language(数据查询语言),数据查询语言,用来查询数据库中表的记
录。
查询关键字: SELECT
在一个正常的业务系统中,查询操作的频次是要远高于增删改的,当我们去访问企业官网、电商网站,在这些网站中我们所看到的数据,实际都是需要从数据库中查询并展示的。而且在查询的过程中,可能还会涉及到条件、排序、分页等操作。
那么,本小节我们主要学习的就是如何进行数据的查询操作。 我们先来完成如下数据准备工作:
drop table if exists employee;
create table emp(
id int comment '编号',
workno varchar(10) comment '工号',
name varchar(10) comment '姓名',
gender char(1) comment '性别',
age tinyint unsigned comment '年龄',
idcard char(18) comment '身份证号',
workaddress varchar(50) comment '工作地址',
entrydate date comment '入职时间'
)comment '员工表';
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (1, '00001', '柳岩666', '女', 20, '123456789012345678', '北京', '2000-01-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (2, '00002', '张无忌', '男', 18, '123456789012345670', '北京', '2005-09-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (3, '00003', '韦一笑', '男', 38, '123456789712345670', '上海', '2005-08-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (4, '00004', '赵敏', '女', 18, '123456757123845670', '北京', '2009-12-01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (5, '00005', '小昭', '女', 16, '123456769012345678', '上海', '2007-07-01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (6, '00006', '杨逍', '男', 28, '12345678931234567X', '北京', '2006-01-01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (7, '00007', '范瑶', '男', 40, '123456789212345670', '北京', '2005-05-01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (8, '00008', '黛绮丝', '女', 38, '123456157123645670', '天津', '2015-05-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (9, '00009', '范凉凉', '女', 45, '123156789012345678', '北京', '2010-04-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (10, '00010', '陈友谅', '男', 53, '123456789012345670', '上海', '2011-01-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (11, '00011', '张士诚', '男', 55, '123567897123465670', '江苏', '2015-05-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (12, '00012', '常遇春', '男', 32, '123446757152345670', '北京', '2004-02-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (13, '00013', '张三丰', '男', 88, '123656789012345678', '江苏', '2020-11-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (14, '00014', '灭绝', '女', 65, '123456719012345670', '西安', '2019-05-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (15, '00015', '胡青牛', '男', 70, '12345674971234567X', '西安', '2018-04-
01');
INSERT INTO emp (id, workno, name, gender, age, idcard, workaddress, entrydate)
VALUES (16, '00016', '周芷若', '女', 18, null, '北京', '2012-06-01');
准备完毕后,我们就可以看到emp表中准备的16条数据。接下来,我们再来完成DQL语法的学习。
(1)基本语法
DQL 查询语句,语法结构如下:
SELECT
字段列表
FROM
表名列表
WHERE
条件列表
GROUP BY
分组字段列表
HAVING
分组后条件列表
ORDER BY
排序字段列表
LIMIT
分页参数
我们在讲解这部分内容的时候,会将上面的完整语法进行拆分,分为以下几个部分:
- 基本查询(不带任何条件)
- 条件查询(WHERE)
- 聚合函数(count、max、min、avg、sum)
- 分组查询(group by)
- 排序查询(order by)
- 分页查询(limit)
(2)基础查询
在基本查询的DQL语句中,不带任何的查询条件,查询的语法如下:
①查询多个字段
SELECT 字段1, 字段2, 字段3 ... FROM 表名 ;
SELECT * FROM 表名 ;
注意 : * 号代表查询所有字段,在实际开发中尽量少用(不直观、影响效率)
②字段设置别名
SELECT 字段1 [ AS 别名1 ] , 字段2 [ AS 别名2 ] ... FROM 表名;
SELECT 字段1 [ 别名1 ] , 字段2 [ 别名2 ] ... FROM 表名;
③去除重复记录
SELECT DISTINCT 字段列表 FROM 表名;
④案例
A. 查询指定字段 name, workno, age并返回
select name,workno,age from emp;
B. 查询返回所有字段
select id ,workno,name,gender,age,idcard,workaddress,entrydate from emp;
select *from emp;
C. 查询所有员工的工作地址,起别名
select workaddress as '工作地址' from emp;
-- as可以省略
select workaddress '工作地址' from emp;
D. 查询公司员工的上班地址有哪些(不要重复)
select distinct workaddress '工作地址' from emp;
(3)条件查询-where
①语法
SELECT 字段列表 FROM 表名 WHERE 条件列表 ;
②条件
常用的比较运算符如下:
比较运算符 | 功能 |
---|---|
> | 大于 |
>= | 大于等于 |
< | 小于 |
<= | 小于等于 |
= | 等于 |
<> 或 != | 不等于 |
BETWEEN ... AND ... | 在某个范围之内(含最小、最大值) |
IN(...) | 在in之后的列表中的值,多选一 |
LIKE 占位符 | 模糊匹配(_匹配单个字符, %匹配任意个字符) |
IS NULL | 是NULL |
常用的逻辑运算符如下:
逻辑运算符 | 功能 |
---|---|
AND 或 && | 并且(多个条件同时成立) |
OR 或 | 或者(多个条件任意一个成立) |
NOT 或 ! | 非 ,不是 |
③案例
A. 查询年龄等于 88 的员工
select * from emp where age = 88;
B. 查询年龄小于 20 的员工信息
select * from emp where age < 20;
C. 查询年龄小于等于 20 的员工信息
select * from emp where age <= 20;
D. 查询没有身份证号的员工信息
select * from emp where idcard is null;
E. 查询有身份证号的员工信息
select * from emp where idcard is not null;
F. 查询年龄不等于 88 的员工信息
select * from emp where age != 88;
select * from emp where age <> 88;
G. 查询年龄在15岁(包含) 到 20岁(包含)之间的员工信息
select * from emp where age >= 15 && age <= 20;
select * from emp where age >= 15 and age <= 20;
select * from emp where age between 15 and 20;
H. 查询性别为 女 且年龄小于 25岁的员工信息
select * from emp where gender = '女' and age < 25;
I. 查询年龄等于18 或 20 或 40 的员工信息
select * from emp where age = 18 or age = 20 or age =40;
select * from emp where age in(18,20,40);
J. 查询姓名为两个字的员工信息 _ %
select * from emp where name like '__';
K. 查询身份证号最后一位是X的员工信息
select * from emp where idcard like '%X';
select * from emp where idcard like '_________________X';
(4)聚合查询-count() ...
①介绍
将一列数据作为一个整体,进行纵向计算。
②常见的聚合函数
函数 | 功能 |
---|---|
count | 统计数量 |
max | 最大值 |
min | 最小值 |
avg | 平均值 |
sum | 求和 |
③语法
SELECT 聚合函数(字段列表) FROM 表名 ;
注意 : NULL值是不参与所有聚合函数运算的。
④案例
A. 统计该企业员工数量
select count(*) from emp; -- 统计的是总记录数
select count(idcard) from emp; -- 统计的是idcard字段不为null的记录数
对于count聚合函数,统计符合条件的总记录数,还可以通过 count(数字/字符串)的形式进行统计
查询,比如:
select count(1) from emp;
对于count(*) 、count(字段)、 count(1) 的具体原理,我们在进阶篇中SQL优化部分会详
细讲解,此处大家只需要知道如何使用即可。
B. 统计该企业员工的平均年龄
select avg(age) from emp;
C. 统计该企业员工的最大年龄
select max(age) from emp;
D. 统计该企业员工的最小年龄
select min(age) from emp;
E. 统计西安地区员工的年龄之和
select sum(age) from emp where workaddress = '西安';
(5)分组查询-group by
①语法
SELECT 字段列表 FROM 表名 [ WHERE 条件 ] GROUP BY 分组字段名 [ HAVING 分组后过滤条件 ];
②🌟 where与having区别
- 执行时机不同:where是分组之前进行过滤,不满足where条件,不参与分组;而having是分组之后对结果进行过滤。
- 判断条件不同:where不能对聚合函数进行判断,而having可以。
注意事项:
- 分组之后,查询的字段一般为聚合函数和分组字段,查询**其他字段无任何意义**。
- 执行顺序: where > 聚合函数 > having 。
- 支持多字段分组, 具体语法为 : group by columnA,columnB
③案例
A. 根据性别分组 , 统计男性员工 和 女性员工的数量
select gender, count(*) from emp group by gender ;
B. 根据性别分组 , 统计男性员工 和 女性员工的平均年龄
select gender, avg(age) from emp group by gender ;
C. 查询年龄小于45的员工 , 并根据工作地址分组 , 获取员工数量大于等于3的工作地址
select workaddress, count(*) as address_count from emp where age < 45 group by workaddress having address_count >= 3;
D. 统计各个工作地址上班的男性及女性员工的数量
select workaddress, gender, count(*) as '数量' from emp group by gender,workaddress
(6)排序查询-order by
排序在日常开发中是非常常见的一个操作,有升序排序,也有降序排序。
①语法
SELECT 字段列表 FROM 表名 ORDER BY 字段1 排序方式1 , 字段2 排序方式2 ;
②排序方式
- ASC : 升序(默认值)
- DESC: 降序
注意事项:
如果是升序, 可以不指定排序方式ASC,默认升序 ;
如果是多字段排序,当第一个字段值相同时,才会根据第二个字段进行排序 ;
③案例
A. 根据年龄对公司的员工进行升序排序
select * from emp order by age asc;
select * from emp order by age;
B. 根据入职时间, 对员工进行降序排序
select * from emp order by entrydate desc;
C. 根据年龄对公司的员工进行升序排序 , 年龄相同 , 再按照入职时间进行降序排序
select * from emp order by age asc , entrydate desc;
(7)分页查询-limit
分页操作在业务系统开发时,也是非常常见的一个功能,我们在网站中看到的各种各样的分页条,后台
都需要借助于数据库的分页操作。
①语法
SELECT 字段列表 FROM 表名 LIMIT 起始索引, 查询记录数 ;
注意事项:
- 起始索引从0开始,起始索引 = (查询页码 - 1) 每页显示记录数*。
- 分页查询是数据库的方言,不同的数据库有不同的实现,MySQL中是LIMIT。
- 如果查询的是第一页数据,起始索引可以省略,直接简写为 limit 10。
②案例
A. 查询第1页员工数据, 每页展示10条记录
select * from emp limit 0,10;
select * from emp limit 10;
B. 查询第2页员工数据, 每页展示10条记录 --------> *(页码-1)页展示记录数
select * from emp limit 10,10;
(8)案例
①查询年龄为20,21,22,23岁的员工信息。
select * from emp where gender = '女' and age in(20,21,22,23);
②查询性别为 男 ,并且年龄在 20-40 岁(含)以内的姓名为三个字的员工。
select * from emp where gender = '男' and (age between 20 and 40) and name like
'___';
③统计员工表中, 年龄小于60岁的 , 男性员工和女性员工的人数。
select gender, count(*) from emp where age < 60 group by gender;
④查询所有年龄小于等于35岁员工的姓名和年龄,并对查询结果按年龄升序排序,如果年龄相同按入职时间降序排序。
select name , age from emp where age <= 35 order by age asc , entrydate desc;
⑤查询性别为男,且年龄在20-40 岁(含)以内的前5个员工信息,对查询的结果按年龄升序排序,年龄相同按入职时间升序排序。
select * from emp where gender = '男' and (age between 20 and 40) order by age asc ,
entrydate asc limit 5 ;
(9)🌟 执行顺序
在讲解DQL语句的具体语法之前,我们已经讲解了DQL语句的完整语法,及编写顺序,接下来,我们要来说明的是DQL语句在执行时的执行顺序,也就是先执行那一部分,后执行那一部分。
验证:
查询年龄大于15的员工姓名、年龄,并根据年龄进行升序排序。
select name , age from emp where age > 15 order by age asc;
在查询时,我们给emp表起一个别名 e,然后在select 及 where中使用该别名。
select e.name , e.age from emp e where e.age > 15 order by age asc;
执行上述SQL语句后,我们看到依然可以正常的查询到结果,此时就说明: from 先执行, 然后
**where 和 select 执行。**那 where 和 select 到底哪个先执行呢?
此时,此时我们可以给select后面的字段起别名,然后在 where 中使用这个别名,然后看看是否可
以执行成功。
select e.name ename , e.age eage from emp e where eage > 15 order by age asc;
执行上述SQL报错了:
由此我们可以得出结论: from 先执行,然后执行 where , 再执行select 。
接下来,我们再执行如下SQL语句,查看执行效果:
select e.name ename , e.age eage from emp e where e.age > 15 order by eage asc;
结果执行成功。 那么也就验证了: order by 是在select 语句之后执行的。
综上所述,我们可以看到DQL语句的执行顺序为: from ... where ... group by ...
having ... select ... order by ... limit ...
(10)总结
2.7 🌟DCL-数据控制
DCL英文全称是Data Control Language(数据控制语言),用来管理数据库用户、控制数据库的访问权限。
(1)管理用户-user表
①查询用户
select * from mysql.user;
查询的结果如下:
其中 Host代表当前用户访问的主机, 如果**为localhost, 仅代表只能够在当前本机访问,是不可以远程访问的。 User代表的是访问该数据库的用户名**。在MySQL中需要通过Host和User来唯一标识一个用户。
②创建用户
CREATE USER '用户名'@'主机名' IDENTIFIED BY '密码';
③ 修改用户密码
ALTER USER '用户名'@'主机名' IDENTIFIED WITH mysql_native_password BY '新密码' ;
④删除用户
DROP USER '用户名'@'主机名' ;
注意事项:
在MySQL中需要通过用户名@主机名的方式,来唯一标识一个用户。
主机名可以使用 % 通配。
这类SQL开发人员操作的比较少,主要是DBA( Database Administrator 数据库管理员)使用。
⑤案例
A. 创建用户itcast, 只能够在当前主机localhost访问, 密码123456;
create user 'itcast'@'localhost' identified by '123456';
B. 创建用户heima, 可以在任意主机访问该数据库, 密码123456;
create user 'heima'@'%' identified by '123456';
C. 修改用户heima的访问密码为1234;
alter user 'heima'@'%' identified with mysql_native_password by '1234';
D. 删除 itcast@localhost 用户
drop user 'itcast'@'localhost';
(2)权限控制
MySQL中定义了很多种权限,但是常用的就以下几种:
上述只是简单罗列了常见的几种权限描述,其他权限描述及含义,可以直接参考官方文档。
权限 | 说明 |
---|---|
ALL, ALL PRIVILEGES | 所有权限 |
SELECT | 查询数据 |
INSERT | 插入数据 |
UPDATE | 修改数据 |
DELETE | 删除数据 |
ALTER | 修改表 |
DROP | 删除数据库/表/视图 |
CREATE | 创建数据库/表 |
① 查询权限-show grants
SHOW GRANTS FOR '用户名'@'主机名' ;
② 授予权限-grant
GRANT 权限列表 ON 数据库名.表名 TO '用户名'@'主机名';
③撤销权限-revoke
REVOKE 权限列表 ON 数据库名.表名 FROM '用户名'@'主机名';
注意事项:
- 多个权限之间,使用逗号分隔
- 授权时, 数据库名和表名可以使用 * 进行通配,代表所有。
④案例
A. 查询 'heima'@'%' 用户的权限
show grants for 'heima'@'%';
B. 授予 'heima'@'%' 用户itcast数据库所有表的所有操作权限
grant all on itcast.* to 'heima'@'%';
C. 授予 'heima'@'%' 用户所有数据库所有表的所有操作权限
grant all on *.* to 'heima'@'%';
D. 撤销 'heima'@'%' 用户的itcast数据库的所有权限
revoke all on itcast.* from 'heima'@'%';
(3)小结
3、函数
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
函数 是指一段可以直接被另一段程序调用的程序或代码。 也就意味着,这一段程序或代码在MySQL中已经给我们提供了,我们要做的就是在合适的业务场景调用对应的函数完成对应的业务需求即可。 那么,函数到底在哪儿使用呢?
我们先来看两个场景:
- 在企业的OA或其他的人力系统中,经常会提供的有这样一个功能,每一个员工登录上来之后都能够看到当前员工入职的天数。 而在数据库中,存储的都是入职日期,如 2000-11-12,那如果快速计算出天数呢?
- 在做报表这类的业务需求中,我们要展示出学员的分数等级分布。而在数据库中,存储的是学生的分数值,如98/75,如何快速判定分数的等级呢?
其实,上述的这一类的需求呢,我们通过MySQL中的函数都可以很方便的实现 。
MySQL中的函数主要分为以下四类: 字符串函数、数值函数、日期函数、流程函数。
3.1 字符串函数
(1)常用字符串函数
MySQL中内置了很多字符串函数,常用的几个如下:
函数 | 功能 |
---|---|
CONCAT(S1,S2,...Sn) | 字符串拼接,将S1,S2,... Sn拼接成一个字符串 |
LOWER(str) | 将字符串str全部转为小写 |
UPPER(str) | 将字符串str全部转为大写 |
LPAD(str,n,pad) | 左填充,用字符串pad对str的左边进行填充,达到n个字符串长度 |
RPAD(str,n,pad) | 右填充,用字符串pad对str的右边进行填充,达到n个字符串长度 |
TRIM(str) | 去掉字符串头部和尾部的空格 |
SUBSTRING(str,start,len) | 返回从字符串str从start位置起的len个长度的字符串 |
(2)演示如下
A. concat : 字符串拼接
select concat('Hello' , ' MySQL');
B. lower : 全部转小写
select lower('Hello');
C. upper : 全部转大写
select upper('Hello');
D. lpad : 左填充
select lpad('01', 5, '-');
E. rpad : 右填充
select rpad('01', 5, '-');
F. trim : 去除空格
select trim(' Hello MySQL ');
G. substring : 截取子字符串
select substring('Hello MySQL',1,5);
(3)案例
由于业务需求变更,企业员工的工号,统一为5位数,目前不足5位数的全部在前面补0。比如: 1号员工的工号应该为00001。
update emp set workno = lpad(workno, 5, '0');
处理完毕后, 具体的数据为:
3.2 数值函数
(1)常见数值函数
常见的数值函数如下:
函数 | 功能 |
---|---|
CEIL(x) | 向上取整 |
FLOOR(x) | 向下取整 |
MOD(x,y) | 返回x/y的模 |
RAND() | 返回0~1内的随机数 |
ROUND(x,y) | 求参数x的四舍五入的值,保留y位小数 |
(2)演示如下
A. ceil:向上取整
select ceil(1.1);
B. floor:向下取整
select floor(1.9);
C. mod:取模
select mod(7,4);
D. rand:获取随机数-0到1之间
select rand();
E. round:四舍五入
select round(2.344,2); #2.34
select round(2.345,2); #2.35
(3)案例
通过数据库的函数,生成一个六位数的随机验证码。
思路: 获取随机数可以通过rand()函数,但是获取出来的随机数是在0-1之间的,所以可以在其基础上乘以1000000,然后舍弃小数部分,如果长度不足6位,补0(左侧补0,所以使用lpad,右侧则使用rpad)
select lpad(round(rand()*1000000 , 0), 6, '0');
3.3 日期函数
(1)常见日期函数
常见的日期函数如下:
函数 | 功能 |
---|---|
CURDATE() | 返回当前日期 |
CURTIME() | 返回当前时间 |
NOW() | 返回当前日期和时间 |
YEAR(date) | 获取指定date的年份 |
MONTH(date) | 获取指定date的月份 |
DAY(date) | 获取指定date的日期 |
DATE_ADD(date, INTERVAL expr type) | 返回一个日期/时间值加上一个时间间隔expr后的时间值 |
DATEDIFF(date1,date2) | 返回起始时间date1 和 结束时间date2之间的天数 |
(2)演示如下
A. curdate:当前日期
select curdate();
B. curtime:当前时间
select curtime();
C. now:当前日期和时间
select now();
D. YEAR , MONTH , DAY:当前年、月、日
select YEAR(now());
select MONTH(now());
select DAY(now());
E. date_add:增加指定的时间间隔-INTERVAL
select date_add(now(), INTERVAL 70 YEAR );
F. datediff:获取两个日期相差的天数
select datediff('2021-10-01', '2021-12-01'); # -61
select datediff('2021-12-01', '2021-10-01'); # 61
(3)案例
查询所有员工的入职天数,并根据入职天数倒序排序。
思路: 入职天数,就是通过当前日期 - 入职日期,所以需要使用datediff函数来完成。
select name, datediff(curdate(), entrydate) as 'entrydays' from emp order by entrydays desc;
3.4 流程函数
流程函数也是很常用的一类函数,可以在SQL语句中实现条件筛选,从而提高语句的效率。
(1)常见流程函数
函数 | 功能 |
---|---|
IF(value , t , f) | 如果value为true,则返回t,否则返回f |
IFNULL(value1 , value2) | 如果value1不为空,返回value1,否则返回value2 |
CASE WHEN [ val1 ] THEN [res1] ...ELSE [ default ] END | 如果val1为true,返回res1,... 否则返回default默认值 |
CASE [ expr ] WHEN [ val1 ] THEN[res1] ... ELSE [ default ] END | 如果expr的值等于val1,返回res1,... 否则返回default默认值 |
(2)演示如下
A. if
select if(false, 'Ok', 'Error');
B. ifnull
select ifnull('Ok','Default'); # OK
select ifnull('','Default'); # 输出 ''
select ifnull(null,'Default'); # 输出Default
C. case when then else end
需求: 查询emp表的员工姓名和工作地址 (北京/上海 ----> 一线城市 , 其他 ----> 二线城市)
select
name,
(case workaddress when '北京' then '一线城市' when '上海' then '一线城市' else
'二线城市' end ) as '工作地址'
from emp;
(3)案例
create table score(
id int comment 'ID',
name varchar(20) comment '姓名',
math int comment '数学',
english int comment '英语',
chinese int comment '语文'
) comment '学员成绩表';
insert into score(id, name, math, english, chinese) VALUES (1, 'Tom', 67, 88, 95), (2, 'Rose' , 23, 66, 90),(3, 'Jack', 56, 98, 76);
具体的SQL语句如下:
select
id,
name,
(case when math >= 85 then '优秀' when math >=60 then '及格' else '不及格' end )
'数学',
(case when english >= 85 then '优秀' when english >=60 then '及格' else '不及格'
end ) '英语',
(case when chinese >= 85 then '优秀' when chinese >=60 then '及格' else '不及格'
end ) '语文'
from score;
3.5 小结
MySQL的常见函数我们学习完了,那接下来,我们就来分析一下,在前面讲到的两个函数的案例场景,
思考一下需要用到什么样的函数来实现?
- 数据库中,存储的是入职日期,如 2000-01-01,如何快速计算出入职天数呢? -------->
- 答案: datediff
- 数据库中,存储的是学生的分数值,如98、75,如何快速判定分数的等级呢? ---------->
- 答案: case ... when ...
4、约束
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
注意:约束是作用于表中字段上的,可以在创建表/修改表的时候添加约束。
4.1 概述
(1)概念
约束是作用于表中字段上的规则,用于限制存储在表中的数据。
(2)目的
保证数据库中数据的正确、有效性和完整性。
(3)分类
注意:约束是作用于表中字段上的,可以在创建表/修改表的时候添加约束。
4.2 约束演示-案例
上面我们介绍了数据库中常见的约束,以及约束涉及到的关键字,那这些约束我们到底如何在创建表、修改表的时候来指定呢,接下来我们就通过一个案例,来演示一下。
案例需求: 根据需求,完成表结构的创建。需求如下:
字段名 | 字段含义 | 字段类型 | 约束条件 | 约束关键字 |
---|---|---|---|---|
id | ID唯一标识 | int | 主键,并且自动增长 | PRIMARY KEY, AUTO_INCREMENT |
name | 姓名 | varchar(10) | 不为空,并且唯一 | NOT NULL , UNIQUE |
age | 年龄 | int | 大于0,并且小于等于120 | CHECK |
status | 状态 | char(1) | 如果没有指定该值,默认为1 | DEFAULT |
gender | 性别 | char(1) | 无 | |
对应的建表语句为: |
对应的建表语句为:
CREATE TABLE tb_user(
id int AUTO_INCREMENT PRIMARY KEY COMMENT 'ID唯一标识',
name varchar(10) NOT NULL UNIQUE COMMENT '姓名' ,
age int check (age > 0 && age <= 120) COMMENT '年龄' ,
status char(1) default '1' COMMENT '状态',
gender char(1) COMMENT '性别'
);
在为字段添加约束时,我们只需要在字段之后加上约束的关键字即可,需要关注其语法。我们执行上面的SQL把表结构创建完成,然后接下来,就可以通过一组数据进行测试,从而验证一下,约束是否可以生效。
insert into tb_user(name,age,status,gender) values ('Tom1',19,'1','男'),
('Tom2',25,'0','男');
# 验证 name 的 not null
insert into tb_user(name,age,status,gender) values ('Tom3',19,'1','男');
insert into tb_user(name,age,status,gender) values (null,19,'1','男');
# 验证 name 的 Unique
insert into tb_user(name,age,status,gender) values ('Tom3',19,'1','男');
# 验证 age
insert into tb_user(name,age,status,gender) values ('Tom4',80,'1','男');
insert into tb_user(name,age,status,gender) values ('Tom5',-1,'1','男');
insert into tb_user(name,age,status,gender) values ('Tom5',121,'1','男');
# 验证status的 Default
insert into tb_user(name,age,gender) values ('Tom5',120,'男');
上面,我们是通过编写SQL语句的形式来完成约束的指定,那加入我们是通过图形化界面来创建表结构时,又该如何来指定约束呢? 只需要在创建表的时候,根据我们的需要选择对应的约束即可。
4.3 外键约束
(1)介绍
外键:用来让两张表的数据之间建立连接,从而保证数据的一致性和完整性。
我们来看一个例子:
左侧的emp表是员工表,里面存储员工的基本信息,包含员工的ID、姓名、年龄、职位、薪资、入职日期、上级主管ID、部门ID,在员工的信息中存储的是部门的ID dept_id,而这个部门的ID是关联的部门表dept的主键id,那emp表的dept_id就是外键,关联的是另一张表的主键。
注意:目前上述两张表,只是在逻辑上存在这样一层关系;在数据库层面,并未建立外键关联,所以 是无法保证数据的一致性和完整性的。
没有数据库外键关联的情况下,能够保证一致性和完整性呢,我们来测试一下。
准备数据
create table dept(
id int auto_increment comment 'ID' primary key,
name varchar(50) not null comment '部门名称'
)comment '部门表';
INSERT INTO dept (id, name) VALUES (1, '研发部'), (2, '市场部'),(3, '财务部'), (4,'销售部'), (5, '总经办');
drop table if exists emp
create table emp(
id int auto_increment comment 'ID' primary key,
name varchar(50) not null comment '姓名',
age int comment '年龄',
job varchar(20) comment '职位',
salary int comment '薪资',
entrydate date comment '入职时间',
managerid int comment '直属领导ID',
dept_id int comment '部门ID'
)comment '员工表';
INSERT INTO emp (id, name, age, job,salary, entrydate, managerid, dept_id) VALUES
(1, '金庸', 66, '总裁',20000, '2000-01-01', null,5),
(2, '张无忌', 20,'项目经理',12500, '2005-12-05', 1,1),
(3, '杨逍', 33, '开发', 8400,'2000-11-03', 2,1),
(4, '韦一笑', 48, '开发',11000, '2002-02-05', 2,1),
(5, '常遇春', 43, '开发',10500, '2004-09-07', 3,1),
(6, '小昭', 19, '程序员鼓励师',6600, '2004-10-12', 2,1);
接下来,我们可以做一个测试,删除id为1的部门信息。
结果,我们看到删除成功,而删除成功之后,部门表不存在id为1的部门,而在emp表中还有很多的员工,关联的为id为1的部门,此时就出现了数据的不完整性。 而要想解决这个问题就得通过数据库的外键约束。
(2)语法
①添加外键
CREATE TABLE 表名(
字段名 数据类型,
...
[CONSTRAINT] [外键名称] FOREIGN KEY (外键字段名) REFERENCES 主表 (主表列名)
);
ALTER TABLE 表名 ADD CONSTRAINT 外键名称 FOREIGN KEY (外键字段名)
REFERENCES 主表 (主表列名) ;
1)案例
为emp表的dept_id字段添加外键约束,关联dept表的主键id。
alter table emp add constraint fk_emp_dept_id foreign key (dept_id) references dept(id);
添加了外键约束之后,我们再到dept表(父表)删除id为1的记录,然后看一下会发生什么现象。 此时将会报错,不能删除或更新父表记录,因为存在外键约束。
② 删除外键
ALTER TABLE 表名 DROP FOREIGN KEY 外键名称;
1)案例
删除emp表的外键fk_emp_dept_id。
alter table emp drop foreign key fk_emp_dept_id;
(3)删除/更新行为
添加了外键之后,再删除父表数据时产生的约束行为,我们就称为删除/更新行为。具体的删除/更新行为有以下几种:
行为 | 说明 |
---|---|
NO ACTION | 当在父表中删除/更新对应记录时,首先检查该记录是否有对应外键,如果有则不允许删除/更新。 (与 RESTRICT 一致) 默认行为 |
RESTRICT | 当在父表中删除/更新对应记录时,首先检查该记录是否有对应外键,如果有则不允许删除/更新。 (与 NO ACTION 一致) 默认行为 |
CASCADE | 当在父表中删除/更新对应记录时,首先检查该记录是否有对应外键,如果有,则也删除/更新外键在子表中的记录。级联删除 |
SET NULL | 当在父表中删除对应记录时,首先检查该记录是否有对应外键,如果有则设置子表中该外键值为null(这就要求该外键允许取null)。 |
SET DEFAULT | 父表有变更时,子表将外键列设置成一个默认的值 (Innodb不支持) |
①具体语法
ALTER TABLE 表名 ADD CONSTRAINT 外键名称 FOREIGN KEY (外键字段) REFERENCES
主表名 (主表字段名) ON UPDATE CASCADE ON DELETE CASCADE;
②演示如下
由于NO ACTION 是默认行为,我们前面语法演示的时候,已经测试过了,就不再演示了,这里我们再演示其他的两种行为:CASCADE、SET NULL。
1)CASCADE-级联模式
alter table emp add constraint fk_emp_dept_id foreign key (dept_id) references
dept(id) on update cascade on delete cascade ;
A. 修改父表id为1的记录,将id修改为6
我们发现,原来在子表中dept_id值为1的记录,现在也变为6了,这就是cascade级联的效果。
在一般的业务系统中,不会修改一张表的主键值。
B. 删除父表id为6的记录
我们发现,父表的数据删除成功了,但是子表中关联的记录也被级联删除了。
2)SET NULL-设为null
在进行测试之前,我们先需要删除上面建立的外键 fk_emp_dept_id。然后再通过数据脚本,将emp、dept表的数据恢复了。
alter table emp add constraint fk_emp_dept_id foreign key (dept_id) references
dept(id) on update cascade on delete cascade ;
接下来,我们删除id为1的数据,看看会发生什么样的现象。
我们发现父表的记录是可以正常的删除的,父表的数据删除之后,再打开子表 emp,我们发现子表emp的dept_id字段,原来dept_id为1的数据,现在都被置为NULL了。
这就是SET NULL这种删除/更新行为的效果。
4.4 小结
5、🌟 多表查询
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
我们之前在讲解SQL语句的时候,讲解了DQL语句,也就是数据查询语句,但是之前讲解的查询都是单表查询,而本章节我们要学习的则是多表查询操作,主要从以下几个方面进行讲解。
5.1 🌟多表关系
项目开发中,在进行数据库表结构设计时,会根据业务需求及业务模块之间的关系,分析并设计表结构,由于业务之间相互关联,所以各个表结构之间也存在着各种联系,基本上分为三种:
- 一对多(多对一)
- 多对多
- 一对一
(1)一对多(多对一)
- 案例: 部门 与 员工的关系
- 关系: 一个部门对应多个员工,一个员工对应一个部门
- 实现: 在多的一方建立外键,指向一的一方的主键
(2)多对多-建立中间表
案例: 学生 与 课程的关系
关系: 一个学生可以选修多门课程,一门课程也可以供多个学生选择
实现: 建立第三张中间表,中间表至少包含两个外键,分别关联两方主键
对应的SQL脚本:
create table student(
id int auto_increment primary key comment '主键ID',
name varchar(10) comment '姓名',
no varchar(10) comment '学号'
) comment '学生表';
insert into student values
(null, '黛绮丝', '2000100101'),
(null, '谢逊','2000100102'),
(null, '殷天正', '2000100103'),
(null, '韦一笑', '2000100104');
create table course(
id int auto_increment primary key comment '主键ID',
name varchar(10) comment '课程名称'
) comment '课程表';
insert into course values
(null, 'Java'),(null, 'PHP'),
(null , 'MySQL'),(null, 'Hadoop');
create table student_course(
id int auto_increment comment '主键' primary key,
studentid int not null comment '学生ID',
courseid int not null comment '课程ID',
constraint fk_courseid foreign key (courseid) references course (id),
constraint fk_studentid foreign key (studentid) references student (id)
)comment '学生课程中间表';
insert into student_course values
(null,1,1),(null,1,2),
(null,1,3),(null,2,2),
(null,2,3),(null,3,4);
(3)一对一-单表拆分
- 案例: 用户 与 用户详情的关系
- 关系: 一对一关系,多用于单表拆分,将一张表的基础字段放在一张表中,其他详情字段放在另一张表中,以提升操作效率
- 实现: 在任意一方加入外键,关联另外一方的主键,并且**设置外键为唯一的(UNIQUE)**
对应的SQL脚本:
create table tb_user(
id int auto_increment primary key comment '主键ID',
name varchar(10) comment '姓名',
age int comment '年龄',
gender char(1) comment '1: 男 , 2: 女',
phone char(11) comment '手机号'
) comment '用户基本信息表';
create table tb_user_edu(
id int auto_increment primary key comment '主键ID',
degree varchar(20) comment '学历',
major varchar(50) comment '专业',
primaryschool varchar(50) comment '小学',
middleschool varchar(50) comment '中学',
university varchar(50) comment '大学',
userid int unique comment '用户ID',
constraint fk_userid foreign key (userid) references tb_user(id)
) comment '用户教育信息表';
insert into tb_user(id, name, age, gender, phone) values
(null,'黄渤',45,'1','18800001111'),
(null,'冰冰',35,'2','18800002222'),
(null,'码云',55,'1','18800008888'),
(null,'李彦宏',50,'1','18800009999');
insert into tb_user_edu(id, degree, major, primaryschool, middleschool,university, userid) values
(null,'本科','舞蹈','静安区第一小学','静安区第一中学','北京舞蹈学院',1),
(null,'硕士','表演','朝阳区第一小学','朝阳区第一中学','北京电影学院',2),
(null,'本科','英语','杭州市第一小学','杭州市第一中学','杭州师范大学',3),
(null,'本科','应用数学','阳泉第一小学','阳泉区第一中学','清华大学',4);
5.2 多表查询概述
(1)数据准备
1). 删除之前 emp, dept表的测试数据
2). 执行如下脚本,创建emp表与dept表并插入测试数据
-- 创建dept表,并插入数据
create table dept(
id int auto_increment comment 'ID' primary key,
name varchar(50) not null comment '部门名称'
)comment '部门表';
INSERT INTO dept (id, name) VALUES
(1, '研发部'), (2, '市场部'),(3, '财务部'),
(4,'销售部'), (5, '总经办'), (6, '人事部');
-- 创建emp表,并插入数据
create table emp(
id int auto_increment comment 'ID' primary key,
name varchar(50) not null comment '姓名',
age int comment '年龄',
job varchar(20) comment '职位',
salary int comment '薪资',
entrydate date comment '入职时间',
managerid int comment '直属领导ID',
dept_id int comment '部门ID'
)comment '员工表';
-- 添加外键
alter table emp add constraint fk_emp_dept_id foreign key (dept_id) references
dept(id);
INSERT INTO emp (id, name, age, job,salary, entrydate, managerid, dept_id)
VALUES
(1, '金庸', 66, '总裁',20000, '2000-01-01', null,5),
(2, '张无忌', 20, '项目经理',12500, '2005-12-05', 1,1),
(3, '杨逍', 33, '开发', 8400,'2000-11-03', 2,1),
(4, '韦一笑', 48, '开发',11000, '2002-02-05', 2,1),
(5, '常遇春', 43, '开发',10500, '2004-09-07', 3,1),
(6, '小昭', 19, '程序员鼓励师',6600, '2004-10-12', 2,1),
(7, '灭绝', 60, '财务总监',8500, '2002-09-12', 1,3),
(8, '周芷若', 19, '会计',48000, '2006-06-02', 7,3),
(9, '丁敏君', 23, '出纳',5250, '2009-05-13', 7,3),
(10, '赵敏', 20, '市场部总监',12500, '2004-10-12', 1,2),
(11, '鹿杖客', 56, '职员',3750, '2006-10-03', 10,2),
(12, '鹤笔翁', 19, '职员',3750, '2007-05-09', 10,2),
(13, '方东白', 19, '职员',5500, '2009-02-12', 10,2),
(14, '张三丰', 88, '销售总监',14000, '2004-10-12', 1,4),
(15, '俞莲舟', 38, '销售',4600, '2004-10-12', 14,4),
(16, '宋远桥', 40, '销售',4600, '2004-10-12', 14,4),
(17, '陈友谅', 42, null,2000, '2011-10-12', 1,null);
dept表共6条记录,emp表共17条记录。
(2)概述
多表查询就是指从多张表中查询数据。
原来查询单表数据,执行的SQL形式为:select * from emp;
那么我们要执行多表查询,就只需要使用逗号分隔多张表即可,如: select * from emp , dept; 具体的执行结果如下:
此时,我们看到查询结果中包含了大量的结果集,总共102条记录,而这其实就是员工表emp所有的记录(17) 与 部门表dept所有记录(6) 的所有组合情况,这种现象称之为笛卡尔积。接下来,就来简单
介绍下笛卡尔积。
笛卡尔积: 笛卡尔乘积是指在数学中,两个集合A集合 和 B集合的所有组合情况。
而在多表查询中,我们是**需要消除无效的笛卡尔积**的,只保留两张表关联部分的数据。
在SQL语句中,如何来去除无效的笛卡尔积呢? 我们可以给多表查询加上连接查询的条件即可。
select * from emp , dept where emp.dept_id = dept.id;
而由于id为17的员工,没有dept_id字段值,所以在多表查询时,根据连接查询的条件并没有查询
到。
(3)分类
- 连接查询
- 内连接:相当于查询A、B交集部分数据
- 外连接:
- 左外连接:查询左表所有数据,以及两张表交集部分数据
- 右外连接:查询右表所有数据,以及两张表交集部分数据
- 自连接:当前表与自身的连接查询,自连接必须使用表别名
- 子查询
5.3 🌟内连接
内连接查询的是两张表交集部分的数据。(也就是绿色部分的数据)
内连接的语法分为两种: 隐式内连接、显式内连接。先来学习一下具体的语法结构。
(1)隐式内连接
SELECT 字段列表 FROM 表1 , 表2 WHERE 条件 ... ;
(2)显式内连接-inner join ... on ...
SELECT 字段列表 FROM 表1 [ INNER ] JOIN 表2 ON 连接条件 ... ;
(3)案例
A. 查询每一个员工的姓名 , 及关联的部门的名称 (隐式内连接实现)
- 表结构: emp , dept
- 连接条件: emp.dept_id = dept.id
select emp.name , dept.name from emp , dept where emp.dept_id = dept.id ;
-- 为每一张表起别名,简化SQL编写
select e.name,d.name from emp e , dept d where e.dept_id = d.id;
B. 查询每一个员工的姓名 , 及关联的部门的名称 (显式内连接实现) --- INNER JOIN ...ON ...
- 表结构: emp , dept
- 连接条件: emp.dept_id = dept.id
select e.name, d.name from emp e inner join dept d on e.dept_id = d.id;
-- 为每一张表起别名,简化SQL编写
select e.name, d.name from emp e join dept d on e.dept_id = d.id;
表的别名:
①. tablea as 别名1 , tableb as 别名2 ;
②. tablea 别名1 , tableb 别名2 ;
注意事项:
一旦为表起了别名,就不能再使用表名来指定对应的字段了,此时只能够使用别名来指定字
段。
5.4 🌟外连接
外连接分为两种,分别是:左外连接 和 右外连接。具体的语法结构为:
(1)左外连接-left [outer] join
左外连接相当于查询表1(左表)的所有数据,当然也包含表1和表2交集部分的数据。
SELECT 字段列表 FROM 表1 LEFT [ OUTER ] JOIN 表2 ON 条件 ... ;
(2)右外连接-right [outer] join
右外连接相当于查询表2(右表)的所有数据,当然也包含表1和表2交集部分的数据。
SELECT 字段列表 FROM 表1 RIGHT [ OUTER ] JOIN 表2 ON 条件 ... ;
(3)案例
A. 查询emp表的所有数据, 和对应的部门信息
由于需求中提到,要查询emp的所有数据,所以是不能内连接查询的,需要考虑使用外连接查询。
- 表结构: emp, dept
- 连接条件: emp.dept_id = dept.id
select e.*, d.name from emp e left outer join dept d on e.dept_id = d.id;
select e.*, d.name from emp e left join dept d on e.dept_id = d.id;
B. 查询dept表的所有数据, 和对应的员工信息(右外连接)
由于需求中提到,要查询dept表的所有数据,所以是不能内连接查询的,需要考虑使用外连接查询。
- 表结构: emp, dept
- 连接条件: emp.dept_id = dept.id
select d.*, e.* from emp e right outer join dept d on e.dept_id = d.id;
select d.*, e.* from dept d left outer join emp e on e.dept_id = d.id;
注意事项:
左外连接和右外连接是可以**相互替换的,只需要调整**在连接查询时SQL中,表结构的先后顺
序就可以了。而我们在日常开发使用时,更偏向于左外连接。
5.5 自连接
(1)自连接查询
自连接查询,顾名思义,就是自己连接自己,也就是把一张表连接查询多次。我们先来学习一下自连接的查询语法:
而对于自连接查询,可以是内连接查询,也可以是外连接查询。
①案例
A. 查询员工 及其 所属领导的名字
表结构: emp
select a.name , b.name from emp a , emp b where a.managerid = b.id;
B. 查询所有员工 emp 及其领导的名字 emp , 如果员工没有领导(Boss), 也需要查询出来
表结构: emp a , emp b
select a.name '员工', b.name '领导' from emp a left join emp b on a.managerid =
b.id;
注意事项:
在自连接查询中,必须要为表起别名,要不然我们不清楚所指定的条件、返回的字段,到底
是哪一张表的字段。
(2)联合查询-union/union all
①概念
对于union查询,就是把多次查询的结果合并起来,形成一个新的查询结果集。
SELECT 字段列表 FROM 表A ...
UNION [ ALL ]
SELECT 字段列表 FROM 表B ....;
- 对于联合查询的多张表的**列数必须保持一致,字段类型也需要保持一致。**
- union all 会将全部的数据直接合并在一起,union 会对合并之后的数据去重。
②案例
A. 将薪资低于 5000 的员工 , 和 年龄大于 50 岁的员工全部查询出来.
当前对于这个需求,我们可以直接使用多条件查询,使用逻辑运算符 or 连接即可。 那这里呢,我们也可以通过union/union all来联合查询.
select * from emp where salary < 5000
union all
select * from emp where age > 50;
union all查询出来的结果,仅仅进行简单的合并,并未去重。
select * from emp where salary < 5000
union
select * from emp where age > 50;
union 联合查询,会对查询出来的结果进行去重处理。
注意:
如果多条查询语句查询出来的结果,字段数量不一致,在进行union/union all联合查询时,将会报
错。如:
5.6 🌟子查询-嵌套Select语句
(1)概述
①概念
SQL语句中**嵌套SELECT语句,称为嵌套查询,又称子查询**。
SELECT * FROM t1 WHERE column1 = ( SELECT column1 FROM t2 );
子查询外部的语句可以是INSERT / UPDATE / DELETE / SELECT 的任何一个。
②分类
根据子查询结果不同,分为:
- A. 标量子查询(子查询结果为单个值)
- B. 列子查询(子查询结果为一列)
- C. 行子查询(子查询结果为一行)
- D. 表子查询(子查询结果为多行多列)
根据子查询位置,分为:
- A. WHERE之后
- B. FROM之后
- C. SELECT之后
(2)标量子查询
①概念
子查询返回的结果是单个值(数字、字符串、日期等),最简单的形式,这种子查询称为标量子查询。
常用的操作符:= <> > >= < <=
②案例
A. 查询 "销售部" 的所有员工信息
完成这个需求时,我们可以将需求分解为两步:
①. 查询 "销售部" 部门ID
select id from dept where name = '销售部';
②. 根据 "销售部" 部门ID, 查询员工信息
select * from emp where dept_id = (select id from dept where name = '销售部');
B. 查询在 "方东白" 入职之后的员工信息
完成这个需求时,我们可以将需求分解为两步:
①. 查询 方东白 的入职日期
select entrydate from emp where name = '方东白';
②. 查询指定入职日期之后入职的员工信息
select * from emp where entrydate > (select entrydate from emp where name = '方东白');
(3)列子查询
①概念
子查询返回的结果是一列(可以是多行),这种子查询称为列子查询。
常用的操作符:IN 、NOT IN 、 ANY 、SOME 、 ALL
②案例
A. 查询 "销售部" 和 "市场部" 的所有员工信息
分解为以下两步:
①. 查询 "销售部" 和 "市场部" 的部门ID
select id from dept where name = '销售部' or name = '市场部';
②. 根据部门ID, 查询员工信息
select * from emp where dept_id in (select id from dept where name = '销售部' or
name = '市场部');
B. 查询比 财务部 所有人工资都高的员工信息
分解为以下两步:
①. 查询所有 财务部 人员工资
select id from dept where name = '财务部';
select salary from emp where dept_id = (select id from dept where name = '财务部');
②. 比 财务部 所有人工资都高的员工信息
select * from emp where salary > all ( select salary from emp where dept_id =
(select id from dept where name = '财务部') );
C. 查询比研发部其中任意一人工资高的员工信息(也就是有比研发部中的高就行,只需要满足其中任意一个)
分解为以下两步:
①. 查询研发部所有人工资
select salary from emp where dept_id = (select id from dept where name = '研发部');
②. 比研发部其中任意一人工资高的员工信息
select * from emp where salary > any ( select salary from emp where dept_id =
(select id from dept where name = '研发部') );
(4)行子查询
①概念
子查询返回的结果是一行(可以是多列),这种子查询称为行子查询。
常用的操作符:= 、<> 、IN 、NOT IN
②案例
A. 查询与 "张无忌" 的薪资及直属领导相同的员工信息 ;
这个需求同样可以拆解为两步进行:
①. 查询 "张无忌" 的薪资及直属领导
select salary, managerid from emp where name = '张无忌';
②. 查询与 "张无忌" 的薪资及直属领导相同的员工信息 ;
select * from emp where (salary,managerid) = (select salary, managerid from emp
where name = '张无忌');
(5)表子查询
①概念
子查询返回的结果是多行多列,这种子查询称为表子查询。
常用的操作符:IN
②案例
A. 查询与 "鹿杖客" , "宋远桥" 的职位和薪资相同的员工信息
分解为两步执行:
①. 查询 "鹿杖客" , "宋远桥" 的职位和薪资
select job, salary from emp where name = '鹿杖客' or name = '宋远桥';
②. 查询与 "鹿杖客" , "宋远桥" 的职位和薪资相同的员工信息
select * from emp where (job,salary) in ( select job, salary from emp where name =
'鹿杖客' or name = '宋远桥' );
B. 查询入职日期是 "2006-01-01" 之后的员工信息 , 及其部门信息
分解为两步执行:
①. 入职日期是 "2006-01-01" 之后的员工信息
select * from emp where entrydate > '2006-01-01';
②. 查询这部分员工, 对应的部门信息;
select e.*, d.* from (select * from emp where entrydate > '2006-01-01') e left
join dept d on e.dept_id = d.id ;
5.7 多表查询案例
数据环境准备:
create table salgrade(
grade int,
losal int,
hisal int
) comment '薪资等级表';
insert into salgrade values (1,0,3000);
insert into salgrade values (2,3001,5000);
insert into salgrade values (3,5001,8000);
insert into salgrade values (4,8001,10000);
insert into salgrade values (5,10001,15000);
insert into salgrade values (6,15001,20000);
insert into salgrade values (7,20001,25000);
insert into salgrade values (8,25001,30000);
在这个案例中,我们主要运用上面所讲解的多表查询的语法,完成以下的12个需求即可,而这里主要涉及到的表就三张:emp员工表、dept部门表、salgrade薪资等级表 。
(1)查询员工的姓名、年龄、职位、部门信息 (隐式内连接)
表: emp , dept
连接条件: emp.dept_id = dept.id
select e.name , e.age , e.job , d.name from emp e , dept d where e.dept_id = d.id;
(2)查询年龄小于30岁的员工的姓名、年龄、职位、部门信息(显式内连接)
表: emp , dept
连接条件: emp.dept_id = dept.id
select e.name , e.age , e.job , d.name from emp e inner join dept d on e.dept_id =
d.id where e.age < 30;
(3)查询拥有员工的部门ID、部门名称
表: emp , dept
连接条件: emp.dept_id = dept.id
select distinct d.id , d.name from emp e , dept d where e.dept_id = d.id;
(4) 查询所有年龄大于40岁的员工, 及其归属的部门名称; 如果员工没有分配部门, 也需要展示出来(外连接)
表: emp , dept
连接条件: emp.dept_id = dept.id
select e.*, d.name from emp e left join dept d on e.dept_id = d.id where e.age >
40 ;
(5) 查询所有员工的工资等级
表: emp , salgrade
连接条件 : emp.salary >= salgrade.losal and emp.salary <= salgrade.hisal
-- 方式一
select e.* , s.grade , s.losal, s.hisal from emp e , salgrade s where e.salary >=
s.losal and e.salary <= s.hisal;
-- 方式二
select e.* , s.grade , s.losal, s.hisal from emp e , salgrade s where e.salary
between s.losal and s.hisal;
(6) 查询 "研发部" 所有员工的信息及 工资等级
表: emp , salgrade , dept
连接条件 : emp.salary between salgrade.losal and salgrade.hisal ,
emp.dept_id = dept.id
查询条件 : dept.name = '研发部'
select e.* , s.grade from emp e , dept d , salgrade s where e.dept_id = d.id and (
e.salary between s.losal and s.hisal ) and d.name = '研发部';
(7)查询 "研发部" 员工的平均工资
表: emp , dept
连接条件 : emp.dept_id = dept.id
select avg(e.salary) from emp e, dept d where e.dept_id = d.id and d.name = '研发
部';
(8)查询工资比 "灭绝" 高的员工信息
①. 查询 "灭绝" 的薪资
select salary from emp where name = '灭绝';
②. 查询比她工资高的员工数据
select * from emp where salary > ( select salary from emp where name = '灭绝' );
(9)查询比平均薪资高的员工信息
①. 查询员工的平均薪资
select avg(salary) from emp;
②. 查询比平均薪资高的员工信息
select * from emp where salary > ( select avg(salary) from emp );
(10)查询低于本部门平均工资的员工信息
①. 查询指定部门平均薪资
select avg(e1.salary) from emp e1 where e1.dept_id = 1;
select avg(e1.salary) from emp e1 where e1.dept_id = 2;
②. 查询低于本部门平均工资的员工信息
select * from emp e2 where e2.salary < ( select avg(e1.salary) from emp e1 where
e1.dept_id = e2.dept_id );
(11) 查询所有的部门信息, 并统计部门的员工人数
select d.id, d.name , ( select count(*) from emp e where e.dept_id = d.id ) '人数'
from dept d;
(12) 查询所有学生的选课情况, 展示出学生名称, 学号, 课程名称
表: student , course , student_course
连接条件: student.id = student_course.studentid , course.id =
student_course.courseid
select s.name , s.no , c.name from student s , student_course sc , course c where
s.id = sc.studentid and sc.courseid = c.id ;
备注: 以上需求的实现方式可能会很多, SQL写法也有很多,只要能满足我们的需求,查询出符合条件的记录即可。
5.8 小结
6、🌟 事务
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
6.1 事务简介
事务 是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系统提交或撤销操作请求,即这些操作**要么同时成功,要么同时失败**。
就比如: 张三给李四转账1000块钱,张三银行账户的钱减少1000,而李四银行账户的钱要增加1000。 这一组操作就必须在一个事务的范围内,要么都成功,要么都失败。
正常情况: 转账这个操作, 需要分为以下这么三步来完成 , 三步完成之后, 张三减少1000, 而李四
增加1000, 转账成功 :
异常情况: 转账这个操作, 也是分为以下这么三步来完成 , 在执行第三步是报错了, 这样就导致张
三减少1000块钱, 而李四的金额没变, 这样就造成了数据的不一致, 就出现问题了。
为了解决上述的问题,就需要通过数据的事务来完成,我们只需要在业务逻辑执行之前开启事务,执行完毕后提交事务。如果执行过程中报错,则回滚事务,把数据恢复到事务开始之前的状态。
注意: 默认MySQL的事务是自动提交的,也就是说,当执行完一条DML语句时,MySQL会立即隐
式的提交事务。
6.2 事务操作
数据准备:
drop table if exists account;
create table account(
id int primary key AUTO_INCREMENT comment 'ID',
name varchar(10) comment '姓名',
money double(10,2) comment '余额'
) comment '账户表';
insert into account(name, money) VALUES ('张三',2000), ('李四',2000);
(1)未控制事务
①测试正常情况
-- 1. 查询张三余额
select * from account where name = '张三';
-- 2. 张三的余额减少1000
update account set money = money - 1000 where name = '张三';
-- 3. 李四的余额增加1000
update account set money = money + 1000 where name = '李四';
测试完毕之后检查数据的状态, 可以看到数据操作前后是一致的。
②测试异常情况
-- 1. 查询张三余额
select * from account where name = '张三';
-- 2. 张三的余额减少1000
update account set money = money - 1000 where name = '张三';
出错了....
-- 3. 李四的余额增加1000
update account set money = money + 1000 where name = '李四';
我们把数据都恢复到2000, 然后再次一次性执行上述的SQL语句(出错了.... 这句话不符合SQL语法,执行就会报错),检查最终的数据情况, 发现数据在操作前后不一致了。
(2)控制事务一
①查看/设置事务提交方式
SELECT @@autocommit ; # 为1自动提交 ; 为0手动提交
SET @@autocommit = 0 # 设置为手动提交,之后的任何操作都需要手动提交事务Commit
②提交事务
COMMIT;
③回滚事务
ROLLBACK;
注意:上述的这种方式,我们是修改了事务的自动提交行为, 把默认的自动提交修改为了手动提交, 此时我们执行的DML语句都不会提交, 需要手动的执行commit进行提交。
(3)控制事务二
①开启事务
START TRANSACTION 或 BEGIN ;
②提交事务
COMMIT;
③回滚事务
ROLLBACK;
④转账案例
-- 开启事务
start transaction
-- 1. 查询张三余额
select * from account where name = '张三';
-- 2. 张三的余额减少1000
update account set money = money - 1000 where name = '张三';
-- 3. 李四的余额增加1000
update account set money = money + 1000 where name = '李四';
-- 如果正常执行完毕, 则提交事务
commit;
-- 如果执行过程中报错, 则回滚事务
-- rollback;
6.3 🌟 事务四大特性-ACID
- 原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
- 一致性(Consistency):事务完成时,必须使所有的数据都保持一致状态。
- 隔离性(Isolation):数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运行。
- 持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。
上述就是事务的四大特性,简称ACID。
6.4 🌟 并发事务问题
- 脏读(Dirty Read):一个事务读取了另一个未提交事务修改过的数据
- 不可重复读(Non-repeatable Read):一个事务内多次读取同一数据,但由于其他事务的修改,导致前后读取的结果不一致
- 幻读(Phantom Read):一个事务内多次查询同一范围的数据,但由于其他事务的插入操作,导致前后查询结果的行数不一致
(1)脏读
赃读:一个事务读到另外一个事务还没有提交的数据。
比如B读取到了A未提交的数据。
①比喻-便于理解
脏读 - 读到"脏"数据
比喻:就像你偷看了同学还没交卷的答案,但后来老师发现他做错了,把答案改了。你看到的是"脏"的、未确认的答案。
例子:
- 事务A修改了某条记录但未提交
- 事务B读取了这条被修改但未提交的记录
- 事务A回滚了修改
- 事务B读到的就是无效的"脏"数据
(2)不可重复读
不可重复读:一个事务先后读取同一条记录,但两次读取的数据不同,称之为不可重复读。
事务A两次读取同一条记录,但是读取到的数据却是不一样的。
①比喻
不可重复读 - 同一次考试中答案变了
比喻:就像你考试时检查同一道题,第一次选A,第二次看变成了B,因为老师在你检查时改了正确答案。
例子:
- 事务A第一次读取数据,值为100
- 事务B修改了该数据为200并提交
- 事务A再次读取同一数据,发现变成了200
- 同一事务内两次读取结果不同
(3)幻读
幻读:一个事务按照条件查询数据时,没有对应的数据行,但是在插入数据时,又发现这行数据已经存在,好像出现了 "幻影"。
①比喻
幻读 - 凭空多出来的行
比喻:就像你数教室里的人数,第一次数是10人,低头记录后再抬头数变成了11人,因为有个人在你低头时溜进来了。
例子:
- 事务A查询年龄>30的员工,得到5条记录
- 事务B插入了一个年龄35的新员工并提交
- 事务A再次查询年龄>30的员工,得到6条记录
- 就像出现了"幻影行"
(4)总结
①如何记忆
- 脏读:读到别人"没洗手"(未提交)的数据
- 不可重复读:同一事务内"重复读"结果不同
- 幻读:像幻觉一样多出或少了几行数据
②数据库隔离级别解决这些问题
- 读未提交(Read Uncommitted):什么都不能防止
- 读已提交(Read Committed):防止脏读
- 可重复读(Repeatable Read):防止脏读和不可重复读
- 串行化(Serializable):防止所有问题(但性能最差)
MySQL的InnoDB在"可重复读"级别下通过MVCC机制也能防止幻读。
6.5 🌟 事务隔离级别
注意:事务隔离级别越高,数据越安全,但是性能越低。
(1)事务隔离级别
为了解决并发事务所引发的问题,在数据库中引入了事务隔离级别。主要有以下几种:
- 读未提交(Read Uncommitted):什么都不能防止
- 读已提交(Read Committed):防止脏读
- 可重复读(Repeatable Read):防止脏读和不可重复读,Mysql的默认隔离级别
- MySQL的InnoDB在"可重复读"级别下通过**MVCC机制也能防止幻读**。
- 串行化(Serializable):防止所有问题(但性能最差)
(2)查看事务隔离级别
SELECT @@TRANSACTION_ISOLATION;
(3)设置事务隔离级别
SET [ SESSION | GLOBAL ] TRANSACTION ISOLATION LEVEL { READ UNCOMMITTED |
READ COMMITTED | REPEATABLE READ | SERIALIZABLE }
注意:事务隔离级别越高,数据越安全,但是性能越低。
6.6 小结
----------------------------
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
二、高级篇
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
1、🌟存储引擎
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
1.1 MySQL体系结构
(1)连接层
最上层是一些客户端和链接服务,包含本地sock 通信和大多数基于客户端/服务端工具实现的类似于TCP/IP的通信。主要完成一些类似于连接处理、授权认证、及相关的安全方案。在该层上引入了线程池的概念,为通过认证安全接入的客户端提供线程。同样在该层上可以实现基于SSL的安全链接。服务器也会为安全接入的每个客户端验证它所具有的操作权限。
(2)服务层
第二层架构主要完成大多数的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化,部分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如 过程、函数等。在该层,服务器会解析查询并创建相应的内部解析树,并对其完成相应的优化如确定表的查询的顺序,是否利用索引等,最后生成相应的执行操作。如果是select语句,服务器还会查询内部的缓存,如果缓存空间足够大,这样在解决大量读操作的环境中能够很好的提升系统的性能。
(3)引擎层
存储引擎层, 存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API和存储引擎进行通信。不同的存储引擎具有不同的功能,这样我们可以根据自己的需要,来选取合适的存储引擎。数据库中的索引是在存储引擎层实现的。
(4)存储层
数据存储层, 主要是将数据(如: redolog、undolog、数据、索引、二进制日志、错误日志、查询日志、慢查询日志等)存储在文件系统之上,并完成与存储引擎的交互。
和其他数据库相比,MySQL有点与众不同,它的架构可以在多种不同场景中应用并发挥良好作用。主要 体现在存储引擎上,插件式的存储引擎架构,将查询处理和其他的系统任务以及数据的存储提取分离。 这种架构可以根据业务的需求和实际需要选择合适的存储引擎。
1.2 存储引擎介绍
(1)概念
大家可能没有听说过存储引擎,但是一定听过引擎这个词,引擎就是发动机,是一个机器的核心组件。比如,对于舰载机、直升机、火箭来说,他们都有各自的引擎,是他们最为核心的组件。而我们在选择引擎的时候,需要在合适的场景,选择合适的存储引擎,就像在直升机上,我们不能选择舰载机的引擎一样。
而对于存储引擎,也是一样,他是mysql数据库的核心,我们也需要在合适的场景选择合适的存储引擎。接下来就来介绍一下存储引擎。存储引擎就是存储数据、建立索引、更新/查询数据等技术的实现方式 。存储引擎是基于表的,而不是基于库的,所以**存储引擎也可被称为表类型**。我们可以在创建表的时候,来指定选择的存储引擎,如果
没有指定将自动选择默认的存储引擎。
(2)建表时指定存储引擎
CREATE TABLE 表名(
字段1 字段1类型 [ COMMENT 字段1注释 ] ,
......
字段n 字段n类型 [COMMENT 字段n注释 ]
) ENGINE = INNODB [ COMMENT 表注释 ] ;
(3)查询当前数据库支持的存储引擎
show engines;
(4)示例演示
A. 查询建表语句 --- 默认存储引擎: InnoDB
show create table account;
我们可以看到,创建表时,即使我们没有指定存储引擎,数据库也会自动选择默认的存储引擎。
B. 查询当前数据库支持的存储引擎
show engines ;
C. 创建表 my_myisam , 并指定MyISAM存储引擎
create table my_myisam(
id int,
name varchar(10)
) engine = MyISAM ;
D. 创建表 my_memory , 指定Memory存储引擎
create table my_memory(
id int,
name varchar(10)
) engine = Memory ;
1.3 🌟 存储引擎特点
上面我们介绍了什么是存储引擎,以及如何在建表时如何指定存储引擎,接下来我们就来介绍下来上面重点提到的三种存储引擎 InnoDB、MyISAM、Memory的特点。
(1)🌟 InnoDB
①介绍
InnoDB是一种兼顾高可靠性和高性能的通用存储引擎,在 MySQL 5.5 之后,InnoDB是默认的MySQL 存储引擎。
②特点
- DML(增删改)操作遵循ACID模型,支持事务;
- 行级锁,提高并发访问性能;
- 支持外键FOREIGN KEY约束,保证数据的完整性和正确性;
③文件
xxx.ibd:xxx代表的是表名,innoDB引擎的每张表都会对应这样一个**表空间文件,存储该表的表结构**(frm-早期的 、sdi-新版的)、数据和索引。
参数:innodb_file_per_table
show variables like 'innodb_file_per_table';
如果该参数开启,代表对于InnoDB引擎的表,每一张表都对应一个ibd文件。 我们直接打开MySQL的数据存放目录: C:\ProgramData\MySQL\MySQL Server 8.0\Data , 这个目录下有很多文件夹,不同的文件夹代表不同的数据库,我们直接打开itcast文件夹。
可以看到里面有很多的ibd文件,每一个ibd文件就对应一张表,比如:我们有一张表 account,就有这样的一个account.ibd文件,而在这个ibd文件中不仅存放表结构、数据,还会存放该表对应的索引信息。 而该文件是基于二进制存储的,不能直接基于记事本打开,我们可以使用mysql提供的一个指令 ibd2sdi ,通过该指令就可以从ibd文件中提取sdi信息,而sdi数据字典信息中就包含该表的表结构。
idb2sdi account.ibd #返回一个JSON数据
④逻辑存储结构
- 表空间 : InnoDB存储引擎逻辑结构的最高层,ibd文件其实就是表空间文件,在表空间中可以包含多个Segment段。
- 段 : 表空间是由各个段组成的, 常见的段有数据段、索引段、回滚段等。InnoDB中对于段的管理,都是引擎自身完成,不需要人为对其控制,一个段中包含多个区。
- 区 : 区是表空间的单元结构,每个区的大小为1M。 默认情况下, InnoDB存储引擎页大小为16K, 即一个区中一共有64个连续的页。
- 页 : 页是组成区的最小单元,页也是InnoDB 存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。为了保证页的连续性,InnoDB 存储引擎每次从磁盘申请 4-5 个区。
- 行 : InnoDB 存储引擎是面向行的,也就是说数据是按行进行存放的,在每一行中除了定义表时所指定的字段以外,还包含两个隐藏字段(后面会详细介绍)
- Trx id : 最后一次操作的事务Id
- Roll pointer :指针
(2)MyISAM
①介绍
MyISAM是MySQL早期的默认存储引擎。
②特点
- 不支持事务,不支持外键
- 支持表锁,不支持行锁
- 访问速度快
③文件
- xxx.sdi:存储表结构信息
- xxx.MYD: 存储数据
- xxx.MYI: 存储索引
(3)Memory
①介绍
Memory引擎的表数据时存储在内存中的,由于受到硬件问题、或断电问题的影响,只能将这些表作为临时表或缓存使用。
②特点
- 内存存放
- hash索引(默认)
③文件
xxx.sdi:存储表结构信息
(4)区别及特点
面试题:
InnoDB引擎与MyISAM引擎的区别 ?
- ①InnoDB引擎, 支持事务, 而MyISAM不支持。
- ②InnoDB引擎, 支持行锁和表锁, 而MyISAM仅支持表锁, 不支持行锁。
- ③InnoDB引擎, 支持外键, 而MyISAM是不支持的。
主要是上述三点区别,当然也可以从索引结构、存储限制等方面,更加深入的回答,具体参
考如下官方文档:
https://dev.mysql.com/doc/refman/8.0/en/innodb-introduction.html
https://dev.mysql.com/doc/refman/8.0/en/myisam-storage-engine.html
1.4 存储引擎选择
在选择存储引擎时,应该根据应用系统的特点选择合适的存储引擎。对于复杂的应用系统,还可以根据实际情况选择多种存储引擎进行组合。
- InnoDB: 是Mysql的默认存储引擎,支持事务、外键。如果应用对事务的完整性有比较高的要求,在并发条件下要求数据的一致性,数据操作除了插入和查询之外,还包含很多的更新、删除操作,那么InnoDB存储引擎是比较合适的选择。
- MyISAM : 如果应用是以读操作和插入操作为主,只有很少的更新和删除操作,并且对事务的完整性、并发性要求不是很高,那么选择这个存储引擎是非常合适的。(该场景可用NoSQL数据库,MongoDB)
- MEMORY:将所有数据保存在内存中,访问速度快,通常用于临时表及缓存。MEMORY的缺陷就是对表的大小有限制,太大的表无法缓存在内存中,而且无法保障数据的安全性。(该场景可用Redis替代)
1.5 小结
2、🚀 索引
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
2.1 索引概述
(1)介绍
索引(index)是帮助MySQL高效获取数据的数据结构(有序)。在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据, 这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引。

一提到数据结构,大家都会有所担心,担心自己不能理解,跟不上节奏。不过在这里大家完全不用担心,我们后面在讲解时,会详细介绍。
(2)演示
表结构及其数据如下:

假如我们要执行的SQL语句为 : select * from user where age = 45;
①无索引情况

在无索引情况下,就需要从第一行开始扫描,一直扫描到最后一行(不一定保证表里面只有一个age=45),我们称之为 全表扫描,性能很低。
②有索引情况
如果我们针对于这张表建立了索引,假设索引结构就是二叉树,那么也就意味着,会对age这个字段建立一个二叉树的索引结构。

此时我们在进行查询时,只需要扫描三次就可以找到数据了,极大的提高的查询的效率。
备注: 这里我们只是假设索引的结构是二叉树,介绍一下索引的大概原理,只是一个示意图,并
不是索引的真实结构,索引的真实结构,后面会详细介绍。
(3)优缺点
2.2 🌟 索引结构
(1)概述
MySQL的索引是在**存储引擎层**实现的,不同的存储引擎有不同的索引结构,主要包含以下几种:
上述是MySQL中所支持的所有的索引结构,接下来,我们再来看看不同的存储引擎对于索引结构的支持情况。
注意: 我们平常所说的索引,如果没有特别指明,都是指B+树结构组织的索引。
(2)二叉树
①二叉树
假如说MySQL的索引结构采用二叉树的数据结构,比较理想的结构如下:

如果主键是顺序插入的,则会形成一个单向链表,结构如下:

所以,如果选择二叉树作为索引结构,会存在以下缺点:
- 顺序插入时,会形成一个链表,查询性能大大降低。
- 大数据量情况下,层级较深,检索速度慢。
②红黑树
此时大家可能会想到,我们可以选择红黑树,红黑树是一颗自平衡二叉树,那这样即使是顺序插入数据,最终形成的数据结构也是一颗平衡的二叉树,结构如下:

但是,即使如此,由于红黑树也是一颗二叉树,所以也会存在一个缺点:
- 大数据量情况下,层级较深,检索速度慢。
所以,在MySQL的索引结构中,并没有选择二叉树或者红黑树,而选择的是B+Tree,那么什么是B+Tree呢?在详解B+Tree之前,先来介绍一个B-Tree。
(3)🌟 B-Tree
①概念
B-Tree,B树是一种多叉路衡查找树,相对于二叉树,B树每个节点可以有多个分支,即多叉。以一颗最大度数(max-degree)为5(5阶)的b-tree为例,那这个B树每个节点最多存储4个key,5个指针
- 指针会比key多一个,原因是如下图的20 30 62 89 对应四个key,而这四个key可以将范围划分成五份,比如<20, 20-30 , 30-62, 62-89, >89 ,所以4个key对应5个指针。
知识小贴士: 树的度数指的是一个节点的子节点个数。
我们可以通过一个数据结构可视化的网站来简单演示一下。
https://www.cs.usfca.edu/~galles/visualization/BTree.html
插入一组数据: 100 65 169 368 900 556 780 35 215 1200 234 888 158 90 1000 88 120 268 250 。然后观察一些数据插入过程中,节点的变化情况。
②特点
5阶的B树,每一个节点最多存储4个key,对应5个指针。
一旦节点存储的key数量到达5,就会**裂变,中间元素向上分裂**。
在B树中,非叶子节点和叶子节点都会存放数据。
③过程演示

剩下的以此类推:
(4)🌟B+Tree
①概念及特点
B+Tree是B-Tree的变种,我们以一颗最大度数(max-degree)为4(4阶)的b+tree为例(4阶 b+ tree 对应 3个key,4个指针),来看一 下其结构示意图:
我们可以看到,两部分:
- 绿色框框起来的部分,是**索引部分,仅仅起到索引数据的作用**,不存储数据。
- 红色框框起来的部分,是数据存储部分,在**其叶子节点中要存储具体的数据**。
- 叶子节点形成一个单向链表。
- 所有元素都会出现在叶子节点,包括裂变时向上分裂的中间元素-也需要保留
我们可以通过一个数据结构可视化的网站来简单演示一下。 https://www.cs.usfca.edu/~galles/visualization/BPlusTree.html
插入一组数据: 100 65 169 368 900 556 780 35 215 1200 234 888 158 90 1000 88 120 268 250 。然后观察一些数据插入过程中,节点的变化情况。
最终我们看到,B+Tree与 B-Tree相比,主要有以下三点区别:
- 所有的数据都会出现在叶子节点。
- 叶子节点形成一个单向链表。
- 非叶子节点仅仅起到索引数据作用,具体的数据都是在叶子节点存放的。
②Mysql中的B+Tree-循环双向链表
上述我们所看到的结构是标准的B+Tree的数据结构,接下来,我们再来看看MySQL中优化之后的 B+Tree。
MySQL索引数据结构对经典的B+Tree进行了优化。在原B+Tree的基础上,增加一个指向相邻叶子节点链表指针,就形成了**带有顺序指针的B+Tree**,提高区间访问的性能,利于排序。
(5)Hash
MySQL中除了支持B+Tree索引,还支持一种索引类型---Hash索引。
①结构
哈希索引就是采用一定的hash算法,将键值换算成新的hash值,映射到对应的槽位上,然后存储在 hash表中。
如果两个(或多个)键值,映射到一个相同的槽位上,他们就产生了hash冲突(也称为hash碰撞),可以通过链表来解决。
②特点
- A. Hash索引只能用于对等比较(=,in),不支持范围查询(between,>,< ,...)
- B. 无法利用索引完成排序操作
- C. 查询效率高,通常==(不存在hash冲突的情况)只需要一次检索==就可以了,效率通常要高于B+tree索引
③存储引擎支持
在MySQL中,支持hash索引的是Memory存储引擎。 而InnoDB中具有自适应hash功能,hash索引是InnoDB存储引擎根据B+Tree索引在指定条件下自动构建的。
思考题: 为什么InnoDB存储引擎选择使用B+tree索引结构?
A. 相对于二叉树,层级更少,搜索效率高;
B. 对于B-tree,无论是叶子节点还是非叶子节点,都会保存数据,这样导致**一页中存储的键值减少,指针跟着减少**,要同样保存大量数据,只能增加树的高度(层级变深),导致性能降低;
C. 相对Hash索引,B+tree支持**范围匹配及排序操作**;
2.3 🌟 索引分类
(1)索引分类
在MySQL数据库,将索引的具体类型主要分为以下几类:主键索引、唯一索引、常规索引、全文索引。

(2)🌟聚集索引&二级索引
而在在InnoDB存储引擎中,根据索引的存储形式,又可以分为以下两种:
①聚集索引选取规则
- 如果存在主键,主键索引就是聚集索引。
- 如果不存在主键,将使用**第一个唯一(UNIQUE)索引**作为聚集索引。
- 如果表没有主键,或没有合适的唯一索引,则InnoDB会自动生成一个rowid作为隐藏的聚集索引。
②聚集索引和二级索引的具体结构
- 聚集索引的叶子节点下挂的是这一行的数据 。
- 二级索引的叶子节点下挂的是该字段值对应的主键值。
③🌟SQL语句执行过程分析-回表查询
回表查询:
这种先到二级索引中查找数据,找到主键值,
然后再到聚集索引中根据主键值,获取数据的方式,就称之为回表查询。
接下来,我们来分析一下,当我们执行如下的SQL语句时,具体的查找过程是什么样子的。
具体过程如下:
① 由于是根据name字段进行查询,所以先根据name='Arm'到name字段的二级索引中进行匹配查找。但是在二级索引中只能查找到 Arm对应的主键值10。
② 由于查询返回的数据是*,所以此时,还需要根据主键值10,到聚集索引中查找10对应的记录,最终找到10对应的行row。
③ 最终拿到这一行的数据,直接返回即可。
④🌟思考题
思考题:
以下两条SQL语句,那个执行效率高? 为什么?
- A. select * from user where id = 10 ;
- B. select * from user where name = 'Arm' ;
备注: id为主键,name字段创建的有索引;
解答:
A 语句的执行性能要高于B 语句。
- 因为A语句直接走聚集索引,直接返回数据。
- 而B语句需要先查询name字段的二级索引,然后再查询聚集索引,也就是**需要进行回表查询**。
思考题:
InnoDB主键索引的B+tree高度为多高呢?
假设:
一行数据大小为1k,一页(16K)中可以存储16行这样的数据。InnoDB的指针占用6个字节的空间,主键类型即使为bigint,占用字节数为8。
高度为2:( 设每个节点(页)中的key的个数为n )
n*8
:设主键类型为bigint占用8字节,每个节点的key个数为n,则一个页中因为键值key占用n*8
字节(n+1)*6
:InnoDB的指针占用6个字节,指针数量=key+1=度数,则一页中指针共占用(n+1)*6
个字节。16*1024
:一页的大小为16K,假设一行-row的数据大小为1K,则一页共可以存储16行。计算:
n * 8 + (n + 1) * 6 = 16*1024 , 算出n约为 1170,则每页中共有1170个key
每页中对应的指针的个数为:
key+1
,即1171,每个指针又会指向新的一页,每页中又有16行数据,那么1171* 16 = 18736也就是说,如果树的高度为2,则可以存储 18000 多条记录。
高度为3:
1171 * 1171 * 16 = 21939856
也就是说,如果树的高度为3,则可以存储 2200w 左右的记录。
2.4 索引语法
(0)Mysql索引的类别
MySQL 支持多种索引类型,每种类型有不同的用途和特性。以下是主要的索引类别:
1. 普通索引 (INDEX)
特点:
- 最基本的索引类型,仅加速查询
- 允许重复值和NULL值
创建方式:
sqlCREATE INDEX idx_name ON table_name(column_name); -- 或 ALTER TABLE table_name ADD INDEX idx_name(column_name);
2. 唯一索引 (UNIQUE INDEX)
特点:
- 索引列的值必须唯一,但允许NULL值(NULL可以重复)
- 自动创建约束,防止重复值
创建方式:
sqlCREATE UNIQUE INDEX idx_name ON table_name(column_name); -- 或 ALTER TABLE table_name ADD UNIQUE idx_name(column_name);
3. 主键索引 (PRIMARY KEY)
特点:
- 特殊的唯一索引,不允许NULL值
- 每个表只能有一个主键
- 自动创建聚集索引(InnoDB引擎)
创建方式:
sqlALTER TABLE table_name ADD PRIMARY KEY(column_name); -- 或建表时指定 CREATE TABLE table_name ( id INT NOT NULL, PRIMARY KEY (id) );
4. 全文索引 (FULLTEXT INDEX)
特点:
- 专门用于全文搜索
- 仅适用于MyISAM和InnoDB引擎(MySQL 5.6+)
- 支持MATCH AGAINST操作
创建方式:
sqlCREATE FULLTEXT INDEX idx_name ON table_name(column_name);
5. 组合索引 (复合索引)
特点:
- 在多个列上建立的索引
- 遵循"最左前缀原则"
创建方式:
sqlCREATE INDEX idx_name ON table_name(col1, col2, col3);
6. 空间索引 (SPATIAL INDEX)
特点:
- 用于地理空间数据类型(GEOMETRY, POINT, LINESTRING等)
- 仅MyISAM引擎支持(MySQL 5.7+的InnoDB也支持)
创建方式:
sqlCREATE SPATIAL INDEX idx_name ON table_name(column_name);
索引选择建议
- 主键列自动创建主键索引
- 频繁作为查询条件的列应建立索引
- 外键列通常需要索引
- 高选择性列(唯一值比例高)更适合索引
- 避免对频繁更新的列建过多索引
查看索引信息
SHOW INDEX FROM table_name;
每种索引类型都有其适用场景,合理使用可以显著提高查询性能,但过多索引会影响写入性能并增加存储空间。
(1)创建索引
CREATE [ UNIQUE | FULLTEXT ] INDEX index_name ON table_name (
index_col_name,... ) ;
(2)查看索引
SHOW INDEX FROM table_name ;
(3)删除索引
DROP INDEX index_name ON table_name ;
(4)案例演示
①数据准备
先来创建一张表 tb_user,并且查询测试数据。
create table tb_user
(
id int primary key auto_increment comment '主键',
name varchar(50) not null comment '用户名',
phone varchar(11) not null comment '手机号',
email varchar(100) comment '邮箱',
profession varchar(11) comment '专业',
age tinyint unsigned comment '年龄',
gender char(1) comment '性别 , 1: 男, 2: 女',
status char(1) comment '状态',
createtime datetime comment '创建时间'
) comment '系统用户表';
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('吕布', '17799990000', 'lvbu666@163.com', '软件工程', 23, '1', '6', '2001-02-02 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('曹操', '17799990001', 'caocao666@qq.com', '通讯工程', 33, '1', '0', '2001-03-05 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('赵云', '17799990002', '17799990@139.com', '英语', 34, '1', '2', '2002-03-02 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('孙悟空', '17799990003', '17799990@sina.com', '工程造价', 54, '1', '0', '2001-07-02 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('花木兰', '17799990004', '19980729@sina.com', '软件工程', 23, '2', '1', '2001-04-22 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('大乔', '17799990005', 'daqiao666@sina.com', '舞蹈', 22, '2', '0', '2001-02-07 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('露娜', '17799990006', 'luna_love@sina.com', '应用数学', 24, '2', '0', '2001-02-08 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('程咬金', '17799990007', 'chengyaojin@163.com', '化工', 38, '1', '5', '2001-05-23 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('项羽', '17799990008', 'xiaoyu666@qq.com', '金属材料', 43, '1', '0', '2001-09-18 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('白起', '17799990009', 'baiqi666@sina.com', '机械工程及其自动化', 27, '1', '2', '2001-08-16 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('韩信', '17799990010', 'hanxin520@163.com', '无机非金属材料工程', 27, '1', '0', '2001-06-12 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('荆轲', '17799990011', 'jingke123@163.com', '会计', 29, '1', '0', '2001-05-11 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('兰陵王', '17799990012', 'lanlinwang666@126.com', '工程造价', 44, '1', '1', '2001-04-09 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('狂铁', '17799990013', 'kuangtie@sina.com', '应用数学', 43, '1', '2', '2001-04-10 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('貂蝉', '17799990014', '84958948374@qq.com', '软件工程', 40, '2', '3', '2001-02-12 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('妲己', '17799990015', '2783238293@qq.com', '软件工程', 31, '2', '0', '2001-01-30 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('芈月', '17799990016', 'xiaomin2001@sina.com', '工业经济', 35, '2', '0', '2000-05-03 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('嬴政', '17799990017', '8839434342@qq.com', '化工', 38, '1', '1', '2001-08-08 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('狄仁杰', '17799990018', 'jujiamlm8166@163.com', '国际贸易', 30, '1', '0', '2007-03-12 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('安琪拉', '17799990019', 'jdodm1h@126.com', '城市规划', 51, '2', '0', '2001-08-15 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('典韦', '17799990020', 'ycaunanjian@163.com', '城市规划', 52, '1', '2', '2000-04-12 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('廉颇', '17799990021', 'lianpo321@126.com', '土木工程', 19, '1', '3', '2002-07-18 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('后羿', '17799990022', 'altycj2000@139.com', '城市园林', 20, '1', '0', '2002-03-10 00:00:00');
INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime)
VALUES ('姜子牙', '17799990023', '37483844@qq.com', '工程造价', 29, '1', '4', '2003-05-26 00:00:00');
表结构中插入的数据如下:


show index from tb_user;
show index from tb_user\G; #美化输出
②完成需求

数据准备好了之后,接下来,我们就来完成如下需求:
A. name字段为姓名字段,该字段的值可能会重复,为该字段创建索引(普通索引)。
CREATE INDEX idx_user_name ON tb_user(name);

B. phone手机号字段的值,是非空,且唯一的,为该字段创建唯一索引。
CREATE UNIQUE INDEX idx_user_phone ON tb_user(phone);
C. 为profession、age、status创建联合索引。
CREATE INDEX idx_user_pro_age_sta ON tb_user(profession,age,status);

D. 为email建立合适的索引(普通索引)来提升查询效率。
CREATE INDEX idx_email ON tb_user(email);
完成上述的需求之后,我们再查看tb_user表的所有的索引数据。
show index from tb_user;
2.5 🌟 SQL性能分析
(1)SQL执行频率
MySQL 客户端连接成功后,通过 show [session|global] status 命令可以提供服务器状态信息。通过如下指令,可以查看当前数据库的INSERT、UPDATE、DELETE、SELECT的访问频次:
-- session 是查看当前会话 ;
-- global 是查询全局数据 ;
SHOW GLOBAL STATUS LIKE 'Com_______';
SHOW SESSION STATUS LIKE 'Com_______';
- Com_delete: 删除次数
- Com_insert: 插入次数
- Com_select: 查询次数
- Com_update: 更新次数
我们可以在当前数据库再执行几次查询操作,然后再次查看执行频次,看看 Com_select 参数会不会变化。
通过上述指令,我们可以查看到当前数据库到底是以查询为主,还是以增删改为主,从而为数据库优化提供参考依据。 如果是以增删改为主,我们可以考虑不对其进行索引的优化。 如果是以查询为主,那么就要考虑对数据库的索引进行优化了。
那么通过查询SQL的执行频次,我们就能够知道当前数据库到底是增删改为主,还是查询为主。 那假如说是以查询为主,我们又该如何定位针对于那些查询语句进行优化呢? 次数我们可以借助于慢查询日志。
接下来,我们就来介绍一下MySQL中的慢查询日志。
(2)🌟 慢查询日志
①概念
慢查询日志记录了所有执行时间超过指定参数(long_query_time,单位:秒,默认10秒)的所有SQL语句的日志。
MySQL的慢查询日志默认没有开启,我们可以查看一下系统变量 。
查询慢查询日志是否开启
show variables like 'slow_query_log';
如果要开启慢查询日志,需要在**MySQL的配置文件(/etc/my.cnf)**中配置如下信息:
vi /etc/my.cnf
在该配置文件的最后添加:
# 开启MySQL慢日志查询开关
slow_query_log=1
# 设置慢日志的时间为2秒,SQL语句执行时间超过2秒,就会视为慢查询,记录慢查询日志
long_query_time=2
配置完毕之后,通过以下指令重新启动MySQL服务器进行测试,查看慢日志文件中记录的信息
/var/lib/mysql/localhost-slow.log
systemctl restart mysqld
然后,再次查看开关情况,慢查询日志就已经打开了。
查看慢日志文件中记录的信息,/var/lib/mysql/localhost-slow.log
cat /var/lib/mysql/localhost-slow.log
tail -f /var/lib/mysql/localhost-slow.log #追加模式查看日志信息
②测试
1)数据准备
CREATE TABLE `tb_sku` (
`id` int(11) NOT NULL AUTO_INCREMENT COMMENT '商品id',
`sn` varchar(100) NOT NULL COMMENT '商品条码',
`name` varchar(200) NOT NULL COMMENT 'SKU名称',
`price` int(20) NOT NULL COMMENT '价格(分)',
`num` int(10) NOT NULL COMMENT '库存数量',
`alert_num` int(11) DEFAULT NULL COMMENT '库存预警数量',
`image` varchar(200) DEFAULT NULL COMMENT '商品图片',
`images` varchar(2000) DEFAULT NULL COMMENT '商品图片列表',
`weight` int(11) DEFAULT NULL COMMENT '重量(克)',
`create_time` datetime DEFAULT NULL COMMENT '创建时间',
`update_time` datetime DEFAULT NULL COMMENT '更新时间',
`category_name` varchar(200) DEFAULT NULL COMMENT '类目名称',
`brand_name` varchar(100) DEFAULT NULL COMMENT '品牌名称',
`spec` varchar(200) DEFAULT NULL COMMENT '规格',
`sale_num` int(11) DEFAULT '0' COMMENT '销量',
`comment_num` int(11) DEFAULT '0' COMMENT '评论数',
`status` char(1) DEFAULT '1' COMMENT '商品状态 1-正常,2-下架,3-删除',
PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='商品表';

load data local infile '/root/sql/tb_sku1.sql' into table `tb_sku` fields terminated by ',' lines terminated by '\n';
注意 :
在mysql命令行中执行load指令,
由于1000w的数据量较大 , 如果直接加载1000w , 会非常耗费CPU及内存 ;
已经拆分为5个部分 , 每一个部分为200w数据 , load 5次即可 ;
确保所有必要的设置已启用
在客户端连接时启用local_infile并指定允许加载的文件:
mysql --local-infile=1 --enable-local-infile -u username -p
在MySQL客户端中执行:
SET GLOBAL local_infile = 1;
2)执行测试
A. 执行如下SQL语句 :
select * from tb_user; -- 这条SQL执行效率比较高, 执行耗时 0.00sec
select count(*) from tb_sku; -- 由于tb_sku表中, 预先存入了1000w的记录, count一次,耗时13.35sec

B. 检查慢查询日志 :
最终我们发现,在慢查询日志中,只会记录执行时间超过我们预设时间(2s)的SQL,执行较快的SQL是不会记录的。
那这样,通过慢查询日志,就可以定位出执行效率比较低的SQL,从而有针对性的进行优化。
(3)profile详情
show profiles 能够在做SQL优化时帮助我们了解时间都耗费到哪里去了。通过have_profiling参数,能够看到当前MySQL是否支持profile操作:
SELECT @@have_profiling ;
可以看到,当前MySQL是支持 profile操作的,但是开关是关闭的。可以通过set语句在session/global级别开启profiling:
SET profiling = 1;
开关已经打开了,接下来,我们所执行的SQL语句,都会被MySQL记录,并记录执行时间消耗到哪儿去了。 我们直接执行如下的SQL语句:
select * from tb_user;
select * from tb_user where id = 1;
select * from tb_user where name = '白起';
select count(*) from tb_sku;
执行一系列的业务SQL的操作,然后通过如下指令查看指令的执行耗时:
-- 查看每一条SQL的耗时基本情况
show profiles;
-- 查看指定query_id的SQL语句各个阶段的耗时情况
show profile for query query_id;
-- 查看指定query_id的SQL语句CPU的使用情况
show profile cpu for query query_id;
查看每一条SQL的耗时情况:
查看指定SQL各个阶段的耗时情况 :
查看指定SQL-CPU的耗时情况

(4)🌟 explain
EXPLAIN 或者 DESC命令获取 MySQL 如何执行 SELECT 语句的信息,包括在 SELECT 语句执行过程中表如何连接和连接的顺序。
①语法
-- 直接在select语句之前加上关键字 explain / desc
EXPLAIN SELECT 字段列表 FROM 表名 WHERE 条件 ;
②Explain 执行计划中各个字段的含义

③案例SC表
create table student(
id int auto_increment comment '主键ID' primary key,
name varchar(10) null comment '姓名',
no varchar(10) null comment '学号'
)comment '学生表';
INSERT INTO student (name, no) VALUES ('黛绮丝', '2000100101');
INSERT INTO student (name, no) VALUES ('谢逊', '2000100102');
INSERT INTO student (name, no) VALUES ('殷天正', '2000100103');
INSERT INTO student (name, no) VALUES ('韦一笑', '2000100104');
create table course(
id int auto_increment comment '主键ID' primary key,
name varchar(10) null comment '课程名称'
)comment '课程表';
INSERT INTO course (name) VALUES ('Java');
INSERT INTO course (name) VALUES ('PHP');
INSERT INTO course (name) VALUES ('MySQL');
INSERT INTO course (name) VALUES ('Hadoop');
create table student_course(
id int auto_increment comment '主键' primary key,
studentid int not null comment '学生ID',
courseid int not null comment '课程ID',
constraint fk_courseid foreign key (courseid) references course (id),
constraint fk_studentid foreign key (studentid) references student (id)
)comment '学生课程中间表';
INSERT INTO student_course (studentid, courseid) VALUES (1, 1);
INSERT INTO student_course (studentid, courseid) VALUES (1, 2);
INSERT INTO student_course (studentid, courseid) VALUES (1, 3);
INSERT INTO student_course (studentid, courseid) VALUES (2, 2);
INSERT INTO student_course (studentid, courseid) VALUES (2, 3);
INSERT INTO student_course (studentid, courseid) VALUES (3, 4);
1)查询所有学生的选课情况
Select * from student s , course c, student_course sc where s.id = sc.studentid and c.id = sc.courseid;
2)查询选修了 MySQL 课程的学生 (子查询)
通过子查询观察explain结果中id的顺序
#查询MySQL对应的课程id
select c.id from course c where c.name = 'MySQL');
#查询选修了mysql课程id 的学生id
select sc.studentid from student_course sc where sc.courseid in (1,2,3);
#查询选修了 MySQL 课程的学生 (子查询)
Select s.*
from student s
where s.id in
(select sc.studentid from student_course sc where sc.courseid in (select c.id from course c where c.name = 'MySQL'));
(5)explain 输出列详解
当你使用 EXPLAIN
分析 SELECT 语句时,MySQL 会返回一个包含多列的结果集,每列都提供了查询执行计划的重要信息。以下是各列的详细解释:

核心列说明
1. id (查询标识符)
表示 SELECT 查询的序列号
相同 id 表示同一查询层级,执行顺序从上至下
数字越大执行优先级越高
id 为 NULL 表示是结果集(如 UNION 结果)
2. select_type (查询类型)
类型 | 说明 |
---|---|
SIMPLE | 简单查询(不包含子查询或 UNION) |
PRIMARY | 最外层查询 |
SUBQUERY | 子查询中的第一个 SELECT |
DERIVED | 派生表(FROM 子句中的子查询) |
UNION | UNION 中的第二个或后续查询 |
UNION RESULT | UNION 的结果集 |
DEPENDENT SUBQUERY | 依赖外部查询的子查询 |
MATERIALIZED | 物化子查询 |
3. table (访问的表)
- 显示查询涉及的表名
- 可能是实际表名、别名或临时表名
<derivedN>
表示派生表(N 对应 id)<unionM,N>
表示 UNION 结果(M,N 对应 id)
4. partitions (匹配的分区)
- 查询匹配的分区(仅分区表有效)
- NULL 表示未分区表
5. type (访问类型,重要!)
①性能分析
表示 MySQL 如何查找表中的行,从优到劣排序:
类型 | 说明 | 性能 |
---|---|---|
system | 表只有一行(系统表) | 最佳 |
const | 通过主键或唯一索引一次查询 | 优 |
eq_ref | 关联查询中主键/唯一索引匹配 | 优 |
ref | 非唯一索引查找(联合索引) | 良 |
fulltext | 全文索引查找 | 特殊 |
ref_or_null | 类似 ref,但包含 NULL 值 | 良 |
index_merge | 索引合并优化 | 良 |
unique_subquery | 子查询使用唯一索引 | 良 |
index_subquery | 子查询使用普通索引 | 中 |
range | 索引范围扫描 | 中 |
index | 全索引扫描 | 差 |
ALL | 全表扫描 | 最差 |
业务SQL几乎不可能出现type=null的情况,除非直接执行select 'A'
。
6. possible_keys (可能使用的索引)
- 查询可能使用的索引列表
- NULL 表示没有相关索引
7. key (实际使用的索引)
- MySQL 实际决定使用的索引
- NULL 表示未使用索引
- 可能不在 possible_keys 中(优化器选择)
8. key_len (使用的索引长度)
- 表示索引中使用的字节数,该值为索引字段最大可能长度,并非实际使用长 度,在不损失精确性的前提下,长度越短越好。
- 可判断是否使用了索引的全部部分
- 计算公式:列定义长度 + NULL(1) + 变长(2)
9. ref (索引引用)
- 显示索引的哪一列被使用了
- 可能是:const、func、列名等
10. rows (预估检查行数)
- MySQL 估计要检查的行数(不是精确值)
- 重要优化指标
- MySQL认为必须要执行查询的行数,在innodb引擎的表中,是一个估计值, 可能并不总是准确的。
11. filtered (过滤百分比)
- 表示存储引擎返回的数据在服务器层过滤后剩余百分比
- 100 表示没有过滤
- 表示返回结果的行数占需读取行数的百分比,filtered的值越大越好。
12. Extra (额外信息,重要!)
包含 MySQL 解决查询的额外信息:
信息 | 说明 |
---|---|
Using index | 使用覆盖索引(只需索引) |
Using where | 服务器层进行过滤 |
Using temporary | 使用临时表 |
Using filesort | 使用文件排序(需优化) |
Using join buffer | 使用连接缓冲 |
Impossible WHERE | WHERE 条件永远不成立 |
Select tables optimized away | 优化器已优化掉表访问 |
优化建议
- 关注
type
列,避免出现ALL
(全表扫描) - 确保
key
列使用了适当的索引 - 当
Extra
出现Using filesort
或Using temporary
时需特别注意 - 比较
rows
与实际数据量,评估索引效率 - 对于复杂查询,尝试
EXPLAIN FORMAT=JSON
获取更详细信息
通过理解这些列的含义,你可以有效分析查询性能瓶颈并进行针对性优化。
2.6 🌟索引使用
(1)验证索引频率

在讲解索引的使用原则之前,先通过一个简单的案例,来验证一下索引,看看是否能够通过索引来提升数据查询性能。在演示的时候,我们还是使用之前准备的一张表 tb_sku , 在这张表中准备了1000w的记录。
为了方便只添加了400W
这张表中id为主键,有主键索引,而其他字段是没有建立索引的。 我们先来查询其中的一条记录,看看里面的字段情况,执行如下SQL:
select * from tb_sku where id = 1\G; # \G 表示 格式化输出
可以看到即使有1000w的数据,根据id进行数据查询,性能依然很快,因为主键id是有索引的。 那么接下来,我们再来根据 sn 字段进行查询,执行如下SQL:
SELECT * FROM tb_sku WHERE sn = '100000003145001';
我们可以看到根据sn字段进行查询,查询返回了一条数据,结果耗时 20.78sec,就是因为sn没有索引,而造成查询效率很低。
那么我们可以针对于sn字段,建立一个索引,建立了索引之后,我们再次根据sn进行查询,再来看一下查询耗时情况。
创建索引:
create index idx_sku_sn on tb_sku(sn) ;

然后再次执行相同的SQL语句,再次查看SQL的耗时。
SELECT * FROM tb_sku WHERE sn = '100000003145001';

我们明显会看到,sn字段建立了索引之后,查询性能大大提升。建立索引前后,查询耗时都不是一个数量级的。
explain分析:
explain SELECT * FROM tb_sku WHERE sn = '100000003145001'\G;
(2)🌟 最左前缀法则
如果索引了多列(联合索引),要遵守最左前缀法则。最左前缀法则指的是**查询从索引的最左列开始,并且不跳过索引中的列。 ** 如果跳跃某一列,索引将会部分失效(后面的字段索引失效)。以 tb_user 表为例,我们先来查看一下之前 tb_user 表所创建的索引。
以 tb_user 表为例,我们先来查看一下之前 tb_user 表所创建的索引。
在 tb_user 表中,有一个联合索引,这个联合索引涉及到三个字段,顺序分别为:profession,age,status。
对于最左前缀法则指的是,查询时,最左边的列,也就是profession必须存在,否则索引全部失效。而且中间不能跳过某一列,否则该列后面的字段索引将失效。 接下来,我们来演示几组案例,看一下具体的执行计划:
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
explain select * from tb_user where profession = '软件工程' and age = 31;
explain select * from tb_user where profession = '软件工程';
以上的这三组测试中,我们发现只要联合索引最左边的字段 profession存在,索引就会生效,只不过索引的长度不同。 而且由以上三组测试,我们也可以**推测出profession字段索引长度为47、age字段索引长度为2、status字段索引长度为5**。
explain select * from tb_user where age = 31 and status = '0';

explain select * from tb_user where status = '0';
而通过上面的这两组测试,我们也可以看到索引并未生效,原因是因为不满足最左前缀法则,联合索引最左边的列profession不存在。
explain select * from tb_user where profession = '软件工程' and status = '0';
上述的SQL查询时,存在profession字段,最左边的列是存在的,索引满足最左前缀法则的基本条件。但是查询时,跳过了age这个列,所以后面的列索引是不会使用的,也就是索引部分生效,所以索引的长度就是47(相当于只有profession字段的索引)
思考题:
当执行SQL语句: explain select * from tb_user where age = 31 and status = '0' and profession = '软件工程'; 时,是否满足最左前缀法则,走不走上述的联合索引,索引长度?
可以看到,是完全满足最左前缀法则的,索引长度54,联合索引是生效的。
注意 : 最左前缀法则中指的最左边的列,是指在查询时,联合索引的最左边的字段(即是第一个字段)必须存在,与我们编写SQL时,条件编写的先后顺序无关。
(3)范围查询
联合索引中,出现范围查询(> , <),范围查询右侧的列索引失效。
explain select * from tb_user where profession = '软件工程' and age > 30 and status = '0';
当范围查询使用> 或 < 时,走联合索引了,但是索引的长度为49,就说明范围查询右边的status字段是没有走索引的。
explain select * from tb_user where profession = '软件工程' and age >= 30 and status = '0';
当范围查询使用>= 或 <= 时,走联合索引了,但是索引的长度为54,就说明所有的字段都是走索引的。
所以,在业务允许的情况下,尽可能的使用类似于 >= 或 <= 这类的范围查询,而避免使用 > 或 <。
(4)🌟 索引失效情况
①索引列运算
不要在索引列上进行运算操作, 索引将失效。
在tb_user表中,除了前面介绍的联合索引之外,还有一个索引,是phone字段的单列索引。
show index from tb_user\G;
A. 当根据phone字段进行等值匹配查询时, 索引生效。
explain select * from tb_user where phone = '17799990015';
B. 当根据phone字段进行函数运算操作之后,索引失效。
explain select * from tb_user where substring(phone,10,2) = '15';
②字符串不加引号-''
字符串类型字段使用时,不加引号,索引将失效。(该没加引号的索引失效,并参照最左前缀法则)
数据库存在隐式类型转换,索引将失效。
接下来,我们通过两组示例,来看看对于字符串类型的字段,加单引号与不加单引号的区别:
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
explain select * from tb_user where profession = '软件工程' and age = 31 and status = 0;

explain select * from tb_user where phone = '17799990015';
explain select * from tb_user where phone = 17799990015;

经过上面两组示例,我们会明显的发现,如果字符串不加单引号,对于查询结果,没什么影响,但是数据库存在隐式类型转换,索引将失效。
③模糊查询-%
如果仅仅是**尾部模糊匹配,索引不会失效。如果是==头部模糊匹配,索引失效==。走的是全表扫描**。
接下来,我们来看一下这三条SQL语句的执行效果,查看一下其执行计划:
由于下面查询语句中,都是根据profession字段查询,符合最左前缀法则,联合索引是可以生效的,
我们主要看一下,模糊查询时,%加在关键字之前,和加在关键字之后的影响。
explain select * from tb_user where profession like '软件%';
explain select * from tb_user where profession like '%工程';
explain select * from tb_user where profession like '%工%';



经过上述的测试,我们发现,在like模糊查询中,在关键字后面加%,索引可以生效。而如果在关键字前面加了%,索引将会失效。
④or连接条件-or
用or分割开的条件, 如果or前的条件中的列有索引,而后面的列中没有索引,那么涉及的索引都不会被用到。即or两侧,一侧有索引、一侧没索引的时候,所以都会失效。
explain select * from tb_user where id = 10 or age = 23;
explain select * from tb_user where phone = '17799990017' or age = 23;
由于age没有索引,所以即使id、phone有索引,索引也会失效。所以需要针对于age也要建立索引。
然后,我们可以对age字段建立索引。
create index idx_user_age on tb_user(age);

建立了索引之后,我们再次执行上述的SQL语句,看看前后执行计划的变化。

最终,我们发现,当or连接的条件,左右两侧字段都有索引时,索引才会生效。
⑤数据分布影响
如果MySQL**评估使用索引比全表更慢,则不使用索引**。
explain select * from tb_user where phone >= '17799990005';
explain select * from tb_user where phone >= '17799990015';

经过测试我们发现,相同的SQL语句,只是传入的字段值不同,最终的执行计划也完全不一样,这是为什么呢?
就是因为MySQL在查询时,会评估使用索引的效率与走全表扫描的效率,如果走全表扫描更快,则放弃索引,走全表扫描。 因为索引是用来索引少量数据的,如果**通过索引查询返回大批量的数据,则还不如走全表扫描来的快,此时索引就会失效。**
接下来,我们再来看看 is null 与 is not null 操作是否走索引。
执行如下两条语句 :
explain select * from tb_user where profession is null;
explain select * from tb_user where profession is not null;
接下来,我们做一个操作将profession字段值全部更新为null
update tb_user set profession = null;

然后,再次执行上述的两条SQL,查看SQL语句的执行计划。

最终我们看到,一模一样的SQL语句,先后执行了两次,结果查询计划是不一样的,为什么会出现这种现象,这是和数据库的数据分布有关系。查询时MySQL会评估,走索引快,还是全表扫描快,如果全表扫描更快,则放弃索引走全表扫描。 因此,is null 、is not null是否走索引,得具体情况具体分析,并不是固定的。
总结:Mysql评估时,会判断查询时是索引快,还是全表扫描快,如果查询的条件对于表中大部分的字段值都满足,则会直接走全表扫描,放弃走索引,反之,同理。 相当于索引只对少部分数据生效。
(5)SQL提示
场景引入
目前tb_user表的数据情况如下:
索引情况如下:
把上述的 idx_user_age, idx_email 这两个之前测试使用过的索引直接删除。
drop index idx_user_age on tb_user;
drop index idx_email on tb_user;
A. 执行SQL : explain select * from tb_user where profession = '软件工程';
explain select * from tb_user where profession = '软件工程';
查询走了联合索引。
B. 执行SQL,创建profession的单列索引:create index idx_user_pro on tb_user(profession);
create index idx_user_pro on tb_user(profession);
C. 创建单列索引后,再次执行A中的SQL语句,查看执行计划,看看到底走哪个索引。

测试结果,我们可以看到,possible_keys中 idx_user_pro_age_sta,idx_user_pro 这两个索引都可能用到,最终MySQL选择了idx_user_pro_age_sta索引。这是MySQL自动选择的结果。
那么,我们能不能在查询的时候,自己来指定使用哪个索引呢? 答案是肯定的,此时就可以借助于MySQL的SQL提示来完成。 接下来,介绍一下SQL提示。
SQL提示,是优化数据库的一个重要手段,简单来说,就是在SQL语句中加入一些人为的提示来达到优化操作的目的。
①use index -建议
建议MySQL使用哪一个索引完成此次查询(仅仅是建议,mysql内部还会再次进行评估)。
explain select * from tb_user use index(idx_user_pro) where profession = '软件工程';
②ignore index 忽略指定的索引
explain select * from tb_user ignore index(idx_user_pro) where profession = '软件工程';
③force index 强制使用索引
explain select * from tb_user force index(idx_user_pro) where profession = '软件工程';
④示例演示
A. use index
explain select * from tb_user use index(idx_user_pro) where profession = '软件工程';
B. ignore index
explain select * from tb_user ignore index(idx_user_pro) where profession = '软件工程';
C. force index
explain select * from tb_user force index(idx_user_pro_age_sta) where profession = '软件工程';
(6)🌟 覆盖索引
尽量**使用覆盖索引,减少select ***。 那么什么是覆盖索引呢? 覆盖索引是指 查询使用了索引,并且需要返回的列,在该索引中已经全部能够找到 。
接下来,我们来看一组SQL的执行计划,看看执行计划的差别,然后再来具体做一个解析。
explain select id, profession from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
explain select id,profession,age, status from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
explain select id,profession,age, status, name from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
上述这几条SQL的执行结果为:
从上述的执行计划我们可以看到,这四条SQL语句的执行计划前面所有的指标都是一样的,看不出来差异。但是此时,我们主要关注的是后面的**Extra**,前面两条SQL的结果为 Using where; UsingIndex ; 而后面两条SQL的结果为: Using index condition 。
因为,在tb_user表中有一个联合索引 idx_user_pro_age_sta,该索引关联了三个字段profession、age、status,而这个索引也是一个二级索引,所以叶子节点下面挂的是这一行的主键id。 所以当我们查询返回的数据在 id、profession、age、status 之中,则**直接走二级索引直接返回数据了。 如果超出这个范围,就需要拿到主键id**,再去扫描聚集索引,再获取额外的数据了,这个过程就是回表。 而我们如果一直使用select * 查询返回所有字段值,很容易就会造成回表查询(除非是根据主键查询,此时只会扫描聚集索引)。
为了大家更清楚的理解,什么是覆盖索引,什么是回表查询,我们一起再来看下面的这组SQL的执行过程。
A. 表结构及索引示意图:
id是主键,是一个聚集索引。 name字段建立了普通索引,是一个二级索引(辅助索引)。
B. 执行SQL : select * from tb_user where id = 2;
根据id查询,直接走聚集索引查询,一次索引扫描,直接返回数据,性能高。
C. 执行SQL:selet id,name from tb_user where name = 'Arm';
虽然是根据name字段查询,查询二级索引,但是由于查询返回在字段为 id,name,在name的二级索引中,这两个值都是可以直接获取到的,因为覆盖索引,所以不需要回表查询,性能高。
D. 执行SQL:selet id,name,gender from tb_user where name = 'Arm';
由于在name的二级索引中,不包含gender,所以,需要两次索引扫描,也就是需要回表查询,性能相对较差一点。
思考题:
一张表, 有四个字段(id, username, password, status), 由于数据量大, 需要对以下SQL语句进行优化, 该如何进行才是最优方案:
select id,username,password from tb_user where username = 'itcast';
答案: 针对于 username, password建立联合索引, sql为:
sqlcreate index idx_user_name_pass on tb_user(username,password);
这样可以避免上述的SQL语句,在查询的过程中,出现回表查询。
(7)前缀索引
当字段类型为字符串(varchar,text,longtext等)时,有时候需要索引很长的字符串,这会让索引变得很大,查询时,浪费大量的磁盘IO, 影响查询效率。此时可以只将字符串的一部分前缀,建立索引,这样可以大大节约索引空间,从而提高索引效率。
①语法-column(lens)
create index idx_xxxx on table_name(column(n)) ;
1)示例
为tb_user表的email字段,建立长度为5的前缀索引。
create index idx_email_5 on tb_user(email(5));
②前缀长度-计算选择性
可以根据索引的选择性来决定,而选择性是指不重复的索引值(基数)和数据表的记录总数的比值,
索引选择性越高则查询效率越高, 唯一索引的选择性是1,这是最好的索引选择性,性能也是最好的。
select count(distinct email) / count(*) from tb_user ;
select count(distinct substring(email,1,5)) / count(*) from tb_user ;
③前缀索引的查询流程
(8)单列索引与联合索引
注意: 创建联合索引时,需要考虑联合索引中的顺序问题,需要考虑索引的最左前缀法则
- 单列索引:即一个索引只包含单个列。
- 联合索引:即一个索引包含了多个列。
我们先来看看 tb_user 表中目前的索引情况:
show index from tb_user;
在查询出来的索引中,既有单列索引,又有联合索引。
接下来,我们来执行一条SQL语句,看看其执行计划:
explain select id,phone,name from tb_user where phone = '17799990010' and name = '韩信';
通过上述执行计划我们可以看出来,在and连接的两个字段 phone、name上都是有单列索引的,但是最终mysql只会选择一个索引,也就是说,只能走一个字段的索引,此时是会**回表查询的**。
紧接着,我们再来创建一个phone和name字段的联合索引来查询一下执行计划。
create unique index idx_user_phone_name on tb_user(phone,name);
此时,查询时,就走了联合索引,而在联合索引中包含 phone、name的信息,在叶子节点下挂的是对应的主键id,所以查询是无需回表查询的。
#使用SQL提示,让Mysql用我创建的联合索引
explain select id,phone,name from tb_user use index(idx_user_phone_name) where phone = '17799990010' and name = '韩信';
在业务场景中,如果存在多个查询条件,考虑针对于查询字段建立索引时,建议建立联合索引,而非单列索引。
如果查询使用的是联合索引,具体的结构示意图如下:
2.7 索引设计原则
- 1). 针对于数据量较大(>100W),且查询比较频繁的表建立索引。
- 2). 针对于常作为查询条件(where)、排序(order by)、分组(group by)操作的字段建立索引。
- 3). 尽量选择区分度高的列作为索引,尽量建立唯一索引,区分度越高,使用索引的效率越高。
- 4). 如果是字符串类型的字段,字段的长度较长,可以针对于字段的特点,建立前缀索引。
- 5). 尽量使用联合索引,减少单列索引,查询时,联合索引很多时候可以覆盖索引,节省存储空间,避免回表,提高查询效率。
- 6). 要控制索引的数量,索引并不是多多益善,索引越多,维护索引结构的代价也就越大,会影响增删改的效率。
- 7). 如果索引列不能存储NULL值,请在创建表时使用NOT NULL约束它。当优化器知道每列是否包含NULL值时,它可以更好地确定哪个索引最有效地用于查询。
2.8 小结
3、🌟 SQL优化
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
3.1 插入数据
(1)insert
如果我们需要一次性往数据库表中插入多条记录,可以从以下三个方面进行优化。
insert into tb_test values(1,'tom');
insert into tb_test values(2,'cat');
insert into tb_test values(3,'jerry');
.....
①优化方案一-批量插入数据
推荐批量插入数量在 500 - 1000条
Insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
②优化方案二-手动控制事务
由于数据库执行一条insert语句就会开启和关闭事务,可以手动控制事务,进而避免频繁开始关闭事务
start transaction;
insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
insert into tb_test values(4,'Tom'),(5,'Cat'),(6,'Jerry');
insert into tb_test values(7,'Tom'),(8,'Cat'),(9,'Jerry');
commit;
③优化方案三-顺序插入
主键顺序插入,性能要高于乱序插入。
主键乱序插入 : 8 1 9 21 88 2 4 15 89 5 7 3
主键顺序插入 : 1 2 3 4 5 7 8 9 15 21 88 89
(2)大批量插入数据-load指令
①load指令插入
如果一次性需要插入大批量数据(比如: 几百万的记录),使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令进行插入。操作如下:
可以执行如下指令,将数据脚本文件中的数据加载到表结构中:
-- 客户端连接服务端时,加上参数 -–local-infile
mysql –-local-infile -u root -p
#若失败则使用:
mysql --local-infile=1 --enable-local-infile -u root -p
-- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关
set global local_infile = 1;
-- 执行load指令将准备好的数据,加载到表结构中
load data local infile '/root/sql1.log' into table tb_user fields terminated by ',' lines terminated by '\n' ;
#这里的 , 表示每个字段按照,分隔;
\n 表示一行按照\n分隔
主键顺序插入性能高于乱序插入
②示例演示
A. 创建表结构
CREATE TABLE `tb_user` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`username` VARCHAR(50) NOT NULL,
`password` VARCHAR(50) NOT NULL,
`name` VARCHAR(20) NOT NULL,
`birthday` DATE DEFAULT NULL,
`sex` CHAR(1) DEFAULT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `unique_user_username` (`username`)
) ENGINE=INNODB DEFAULT CHARSET=utf8 ;
B. 设置参数
-- 客户端连接服务端时,加上参数 -–local-infile
mysql –-local-infile -u root -p
#若失败则使用:
mysql --local-infile=1 --enable-local-infile -u username -p
# 查看local_infile 的值
Select @@local_infile;
-- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关
set global local_infile = 1;
C. load加载数据
# 上传sql脚本到Linux服务器
# 查看sql脚本的前10条数据
head load_user_100w_sort.sql;
# load加载数据
load data local infile '/root/load_user_100w_sort.sql' into table tb_user fields terminated by ',' lines terminated by '\n' ;
我们看到,插入100w的记录,17s就完成了,性能很好。
在load时,主键顺序插入性能高于乱序插入
3.2 🌟主键优化
在上一小节,我们提到,主键顺序插入的性能是要高于乱序插入的。 这一小节,就来介绍一下具体的原因,然后再分析一下主键又该如何设计。
(1)数据组织方式
在InnoDB存储引擎中,表数据都是根据**主键顺序组织存放的,这种存储方式的表称为索引组织表**(index organized table IOT)。
行数据,都是存储在聚集索引的叶子节点上的。非叶子节点,存储的只是起到索引数据的作用,而我们之前也讲解过InnoDB的逻辑结构图:
在InnoDB引擎中,数据行是记录在逻辑结构 page 页中的,而每一个页的大小是固定的,默认16K。那也就意味着, 一个页中所存储的行也是有限的,如果插入的数据行row在该页存储不了,将会存储到下一个页中,页与页之间会通过指针连接。
(2)页分裂
页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据(如果一行数据过大,会行溢出),根据主键排列。
A. 主键顺序插入效果
①. 从磁盘中申请页, 主键顺序插入
②. 第一个页没有满,继续往第一页插入
③. 当第一个也写满之后,再写入第二个页,页与页之间会通过指针连接
④. 当第二页写满了,再往第三页写入
B. 主键乱序插入效果
①. 加入1#,2#页都已经写满了,存放了如图所示的数据
②. 此时再插入id为50的记录,我们来看看会发生什么现象
会再次开启一个页,写入新的页中吗?
不会。因为,索引结构的叶子节点是有顺序的。按照顺序,应该存储在47之后。
但是47所在的1#页,已经写满了,存储不了50对应的数据了。 那么此时会开辟一个新的页 3#。
但是并不会直接将50存入3#页,而是会将1#页后一半的数据,移动到3#页,然后**在3#页,插入50**。
移动数据,并插入id为50的数据之后,那么此时,这三个页之间的数据顺序是有问题的。 1#的下一个页,应该是3#, 3#的下一个页是2#。 所以,此时,需要重新设置链表指针。
上述的这种现象,称之为 "页分裂",是**比较耗费性能的操作**。
(3)页合并
目前表中已有数据的索引结构(叶子节点)如下:
当我们对已有数据进行删除时,具体的效果如下:
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。
当我们继续删除2#的数据记录
当页中删除的记录达到 MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
删除数据,并将页合并之后,再次插入新的数据21,则直接插入3#页
这个里面所发生的合并页的这个现象,就称之为 "页合并"。
知识小贴士:
MERGE_THRESHOLD:合并页的阈值,可以自己设置,在创建表或者创建索引时指定。
(4)主键设计原则
满足业务需求的情况下,尽量**降低主键的长度**。
- 由于二级索引保存数据的是主键的id,如果主键长度过大会导致,占用大量的磁盘空间。
插入数据时,尽量选择顺序插入,选择使用AUTO_INCREMENT自增主键。
- 避免出现页分裂现象
- 如果插入是自增主键,会依次插入对应到页中(如果当前页满了则创建新的页即可),无需调整页的顺序,提高了性能。
- 如果是乱序插入,会因为需要保持叶子节点中的数据是有序的这一原则,而需要不断地调整也中数据的位置以及页的位置,进而导致增加插入时的性能损失。
尽量不要使用UUID做主键或者是其他自然主键,如身份证号。
- UUID是无序的
- UUID的长度有些长,会让主键的长度偏长
业务操作时,避免对主键的修改。
- 因为在二级索引的索引结构中保存的数据是主键的id,如果直接对主键进行修改,同时需要修改对应二级索引中的主键id,这样修改的代价过大
3.3 order by优化
(1)排序方式
①Using filesort
②Using index
MySQL的排序,有两种方式:
- Using filesort : 通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫 FileSort 排序。
- Using index : 通过有序索引顺序扫描直接返回有序数据,这种情况即为 using index,不需要额外排序,操作效率高。
对于以上的两种排序方式,Using index的性能高,而Using filesort的性能低,我们在优化排序操作时,尽量要优化为 Using index。
(2)测试
接下来,我们来做一个测试:
A. 数据准备
把之前测试时,为tb_user表所建立的部分索引直接删除掉
show index from tb_user;
drop index idx_user_phone on tb_user;
drop index idx_user_phone_name on tb_user;
drop index idx_user_name on tb_user;
B. 执行排序SQL
explain select id,age,phone from tb_user order by age ;
explain select id,age,phone from tb_user order by age, phone ;
由于 age, phone 都没有索引,所以此时再排序时,出现Using filesort, 排序性能较低。
C. 创建索引
-- 创建索引
create index idx_user_age_phone_aa on tb_user(age,phone);
# 这里索引名字命名中的 _aa 表示的是age和phone都是按照 升序排序 创建的索引
D. 创建索引后,根据age, phone进行升序排序
explain select id,age,phone from tb_user order by age;
explain select id,age,phone from tb_user order by age , phone;
建立索引之后,再次进行排序查询,就由原来的Using filesort, 变为了 Using index,性能就是比较高的了。
如果只对phone进行升序排序
explain select id , phone from tb_user order by phone;
E. 创建索引后,根据age, phone进行降序排序
explain select id,age,phone from tb_user order by age desc , phone desc;
也出现 Using index, 但是此时Extra中出现了 Backward index scan,这个代表反向扫描索引,
因为在MySQL中我们创建的索引,默认索引的叶子节点是从小到大排序的,而此时我们查询排序时,是从大到小(desc 降序排列)
所以,在扫描时,就是反向扫描,就会出现 Backward index scan。 在MySQL8版本中,支持降序索引,我们也可以创建降序索引。
F. 根据phone,age进行升序排序,phone在前,age在后。
explain select id,age,phone from tb_user order by phone , age;
排序时,也需要满足最左前缀法则,否则也会出现 filesort。
因为在创建索引的时候, age是第一个字段,phone是第二个字段,所以排序时,也就该按照这个顺序来,否则就会出现 Usingfilesort。
G. 根据age, phone进行降序一个升序,一个降序
explain select id,age,phone from tb_user order by age asc , phone desc ;
因为创建索引时,如果未指定顺序,默认都是按照升序排序的,而查询时,一个升序,一个降序,此时就会出现Using filesort。
为了解决上述的问题,我们可以创建一个索引,这个联合索引中 age 升序排序,phone 倒序排序。
H. 创建联合索引(age 升序排序,phone 倒序排序)
create index idx_user_age_phone_ad on tb_user(age asc ,phone desc);
# 这里索引名字命名中的 _ad 表示的是 age 升序排序,phone 倒序排序 创建的索引
I. 然后再次执行如下SQL
explain select id,age,phone from tb_user order by age asc , phone desc ;
升序/降序联合索引结构图示:
(3)优化原则
由上述的测试,我们得出order by优化原则:
A. 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则。
B. 尽量使用覆盖索引。
如果不使用覆盖索引(如Select * from)的话,还是会使用Using filesort方式进行排序
- sql
explain select * from tb_user order by age asc , phone desc ;
C. 多字段排序, 一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)。
D. 如果不可避免的出现filesort,大数据量排序时,可以适当增大排序缓冲区大小sort_buffer_size(默认256k),如果超过了设置的排序缓存区的大小,会在磁盘文件中进行排序,相对的磁盘中进行排序会慢得多。
- sql
show variables like 'sort_buffer_size';
3.4 group by优化
分组操作,我们主要来看看索引对于分组操作的影响。
首先我们先将 tb_user 表的索引全部删除掉 。
drop index idx_user_pro_age_sta on tb_user;
drop index idx_email_5 on tb_user;
drop index idx_user_age_phone_aa on tb_user;
drop index idx_user_age_phone_ad on tb_user;
show index from tb_user;
接下来,在没有索引的情况下,执行如下SQL,查询执行计划:
explain select profession , count(*) from tb_user group by profession ;
Using temporary,表示使用到了临时表
然后,我们在针对于 profession , age, status 创建一个联合索引。
create index idx_user_pro_age_sta on tb_user(profession , age , status);
紧接着,再执行前面相同的SQL查看执行计划。
explain select profession , count(*) from tb_user group by profession ;
再执行如下的分组查询SQL,查看执行计划:
explain select age ,count(*) from tb_user group by age;
我们发现,如果仅仅根据age分组,就会出现 Using temporary ;而如果是 根据profession,age两个字段同时分组,则不会出现 Using temporary。原因是因为对于分组操作,在联合索引中,也是符合最左前缀法则的。
注意,下列情况也满足最左前缀法则
explain select age ,count(*) from tb_user where profession = '软件工程' group by age;
所以,在分组操作中,我们需要通过以下两点进行优化,以提升性能:
- A. 在分组操作时,可以通过索引来提高效率。
- B. 分组操作时,索引的使用也是满足最左前缀法则的。
3.5 limit优化
在数据量比较大时,如果进行limit分页查询,在查询时,越往后,分页查询效率越低。
select * from tb_sku limit 0,10;
select * from tb_sku limit 100000,10;
select * from tb_sku limit 1000000,10;
我们一起来看看执行limit分页查询耗时对比:



通过测试我们会看到,越往后,分页查询效率越低,这就是分页查询的问题所在。
因为,当在进行分页查询时,如果执行 limit 2000000,10 ,此时需要MySQL排序前2000010 记录,仅仅返回 2000000 - 2000010 的记录,其他记录丢弃,查询排序的代价非常大 。
优化思路: 一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过**覆盖索引加子查询形式进行优化**。
# 使用聚集索引,也就是这里的id进行查询,也可以是使用覆盖索引进行先一步查询
select id from tb_sku order by id limit 2000000,10;
注意-这里不能直接使用in的方式
select * from tb_sku t where t.id in (select id from tb_sku order by id limit 2000000,10);
# 通过将利用覆盖索引(这里的聚集索引id)查询到的id信息当做一张表和tb_sku进行连接。进而优化查询效率
explain select * from tb_sku t , (select id from tb_sku order by id limit 2000000,10) a where t.id = a.id;
3.6 count优化
(1)概述
select count(*) from tb_user ;
在之前的测试中,我们发现,如果数据量很大,在执行count操作时,是非常耗时的。
- MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行 count(*) 的时候会直接返回这个数,效率很高; 但是如果是带条件的count,MyISAM也慢。
- InnoDB 引擎就麻烦了,它执行 count(*) 的时候,需要把数据一行一行地从引擎里面读出来,然后累积计数。
如果说要大幅度提升InnoDB表的count效率,主要的优化思路:
自己计数
- 可以借助于redis这样的数据库进行,如果增加数据行数量+1,删除-1,自己去维护总数
- 但是如果是带条件的count又比较麻烦了
(2)count用法
count() 是一个聚合函数,对于返回的结果集,一行行地判断,如果 count 函数的参数不是NULL,累计值就加 1,否则不加,最后返回累计值。
用法:count(*)、count(主键)、count(字段)、count(数字)
按照效率排序的话,count(字段) < count(主键 id) < count(1) ≈
count(*)
,所以尽量使用count(*)
。
3.7 🌟update优化
我们主要需要注意一下update语句执行时的注意事项。
begin;
update course set name = 'javaEE' where id = 1 ;
commit;
当我们在执行删除的SQL语句时,会锁定id(id为主键-聚集索引)为1这一行的数据,然后事务提交之后,行锁释放。
但是当我们在执行如下SQL时。
begin;
update course set name = 'SpringBoot' where name = 'PHP' ;
commit;
当我们开启多个事务,在执行上述的SQL时,我们发现行锁升级为了表锁。 导致该update语句的性能大大降低。
原因: InnoDB的**行锁是针对索引加的锁**
在进行update语句的时候如果后面的where条件涉及的字段是索引的话,则会对此时修改的记录**加行锁**,在当前修改事务未提交前,其他事务可以修改表中的其他行。
但如果where后的字段不是索引的话,InnoDB会**从行锁升级为表锁**,此时其他事务就不能访问该表中的其他字段了。
InnoDB的**行锁是针对索引加的锁,不是针对记录加的锁** ,并且该索引不能失效,否则会从行锁升级为表锁 。进而导致表的并发性能。
3.8 小结
4、视图/存储过程/触发器
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
4.1 视图
(1)介绍
视图(View)是一种虚拟存在的表。视图中的数据并不在数据库中实际存在,行和列数据来自定义视图的查询中使用的表,并且是在使用视图时动态生成的。
通俗的讲,视图只保存了查询的SQL逻辑,不保存查询结果。所以我们在创建视图的时候,主要的工作就落在创建这条SQL查询语句上。
(2)语法
①创建
create or replace : 创建或者替换一个视图
CREATE [OR REPLACE] VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [CASCADED | LOCAL ] CHECK OPTION ]
②查询
查看创建视图语句:SHOW CREATE VIEW 视图名称;
查看视图数据:SELECT * FROM 视图名称 ...... ;
③修改
方式一:CREATE [OR REPLACE] VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
方式二:ALTER VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
④删除
DROP VIEW [IF EXISTS] 视图名称 [,视图名称] ...
⑤演示示例
-- 创建视图
create or replace view stu_v_1 as select id,name from student where id <= 10;
-- 查询视图
show create view stu_v_1;
select * from stu_v_1;
select * from stu_v_1 where id < 3;
-- 修改视图
create or replace view stu_v_1 as select id,name,no from student where id <= 10;
alter view stu_v_1 as select id,name from student where id <= 10;
-- 删除视图
drop view if exists stu_v_1;
上述我们演示了,视图应该如何创建、查询、修改、删除,那么我们能不能通过视图来插入、更新数据呢? 接下来,做一个测试。
create or replace view stu_v_1 as select id,name from student where id <= 10 ;
select * from stu_v_1;
insert into stu_v_1 values(6,'Tom');
insert into stu_v_1 values(17,'Tom22');
执行上述的SQL,我们会发现,id为6和17的数据都是可以成功插入的。 但是我们执行查询,查询出来的数据,却没有id为17的记录。

因为我们在创建视图的时候,指定的条件为 id<=10, id为17的数据,是不符合条件的,所以没有查询出来,但是这条数据确实是已经成功的插入到了基表中。
如果我们定义视图时,如果指定了条件,然后我们在插入、修改、删除数据时,是否可以做到必须满足条件才能操作,否则不能够操作呢? 答案是可以的,这就需要借助于视图的检查选项了。
(3)检查选项
当使用**WITH CHECK OPTION子句创建视图时,MySQL会通过视图检查正在更改的每个行**,例如 插入,更新,删除,以使其**符合视图的定义。 MySQL允许基于另一个视图创建视图**,它还会检查依赖视图中的规则以保持一致性。为了确定检查的范围,mysql提供了两个选项: CASCADED 和 LOCAL,默认值为 CASCADED 。
create or replace view stu_v_1
as select id,name
from student
where id <= 10
with [cascaded | local] check option;
①CASCADED级联
比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 cascaded,但是v1视图创建时未指定检查选项。 则在执行检查时,不仅会检查v2,还会级联检查v2的关联视图v1。
cascaded级联,会对加上了该 检查选项 的视图v 检查正在更改的操作是否符合视图的定义,并且如果该视图v还有依赖其他视图,则还会级联检查该视图v依赖的所有视图。
create or replace view stu_v_1
as select id, name, no
from student
where id <= 20;
insert into stu_v_1 values (5, 'Tom');
insert into stu_v_1 values (25, 'Tom22');
# 由于没有加上检查选项,能够添加进基表student中,不会添加到v1中,并且也不会报错。
create or replace view stu_v_2
as select id, name
from stu_v_1
where id >= 10
with cascaded check option;
insert into stu_v_2 values (7, 'Tom'); #报错,不满足v2的定义 >=10
insert into stu_v_2 values (26, 'Tom');
# 由于视图v2在创建时使用了cascaded级联,虽然满足v2的定义,但是不满足v2依赖的v1的定义
insert into stu_v_2 values (15, 'Tom');
create or replace view stu_v_3
as select id, name
from stu_v_2
where id <= 15;
insert into stu_v_3 values (11, 'Tom'); insert into stu_v_3 values (17, 'Tom');
#不满足v3的定义,但是能够执行成功,因为没有给v3加上检查选项,虽然v3中不能添加到,只能添加到基表student中,但是也不会报错
insert into stu_v_3 values (28, 'Tom');
#报错,虽然不会去检查v3但是v2添加了检查选项会进行cascaded级联检查,不符合v1的定义
②LOCAL本地
比如,v2视图是基于v1视图的,如果在v2视图创建的时候**指定了检查选项为 local** ,但是v1视图创建时未指定检查选项。 则在执行检查时,只会检查v2,不会检查v2的关联视图v1。
使用local后,如果当前加了 local检查选项 的视图v,并且该视图还依赖了其他视图v' ,它会去检查它所依赖的视图v' 是否在创建视图时添加了检查选项,如果添加了就一起判断,如没有添加则只会判断视图v所定义的条件
(4)视图的更新
①概念
要使视图可更新,视图中的行与基础表中的行之间必须存在一对一的关系。如果视图包含以下任何一项,则该视图不可更新:
A. 聚合函数或窗口函数(SUM()、 MIN()、 MAX()、 COUNT()等)
B. DISTINCT
C. GROUP BY
D. HAVING
E. UNION 或者 UNION ALL
②示例演示
create view stu_v_count as select count(*) from student;
上述的视图中,就只有一个单行单列的数据,如果我们对这个视图进行更新或插入的,将会报错。
insert into stu_v_count values(10);
(5)视图的作用
①简单
视图不仅可以简化用户对数据的理解,也可以简化他们的操作。那些被经常使用的查询可以被定义为视图,从而使得用户不必为以后的操作每次指定全部的条件。
②安全
数据库可以授权,但不能授权到数据库特定行和特定的列上。通过视图用户只能查询和修改他们所能见到的数据
③数据独立
视图可帮助用户屏蔽真实表结构变化带来的影响。
比如,student表中的name字段发生变化,从name -》stuName,此时只需改变视图的映射关系即可,无需改变业务代码。
# 原本的视图
create or replace view stu_v_1
as select id, name, no
from student where id <= 10;
# 需求变更,将基表student的name字段改变,从name -》stuName
# 改变视图的映射关系即可,不影响业务代码
create or replace view stu_v_1
as select id, stuName, no
from student where id <= 10;
(6)案例
1). 为了保证数据库表的安全性,开发人员在操作tb_user表时,只能看到的用户的基本字段,屏蔽手机号和邮箱两个字段。
create view tb_user_view
as select id,name,profession,age,gender,status,createtime
from tb_user;
select * from tb_user_view;
2). 查询每个学生所选修的课程(三张表联查),这个功能在很多的业务中都有使用到,为了简化操作,定义一个视图。
create view tb_stu_course_view
as select s.name student_name , s.no student_no , c.name course_name
from student s, student_course sc , course c
where s.id = sc.studentid and sc.courseid = c.id;
select * from tb_stu_course_view;
4.2 存储过程
(1)介绍和特点
存储过程是事先经过编译并存储在数据库中的一段 SQL 语句的集合,调用存储过程可以简化应用开发人员的很多工作,减少数据在数据库和应用服务器之间的传输(主要是网络传输),对于提高数据处理的效率是有好处的。
存储过程思想上很简单,就是数据库 SQL 语言层面的代码封装与重用。
特点
封装,复用
- 可以把某一业务SQL封装在存储过程中,需要用到的时候直接调用即可。
可以接收参数,也可以返回数据
- 再存储过程中,可以传递参数,也可以接收返回值。
减少网络交互,效率提升
- 如果涉及到多条SQL,每执行一次都是一次网络传输。 而如果封装在存储过程中,我们只需要网络交互一次可能就可以了。
(2)基本用法
① 创建
CREATE PROCEDURE 存储过程名称 ([ 参数列表 ])
BEGIN
-- SQL语句
END ;
② 调用
CALL 名称 ([ 参数 ]);
③ 查看
SELECT * FROM INFORMATION_SCHEMA.ROUTINES WHERE ROUTINE_SCHEMA = 'xxx'; -- 查询指定数据库的存储过程及状态信息
SHOW CREATE PROCEDURE 存储过程名称 ; -- 查询某个存储过程的定义
④ 删除
DROP PROCEDURE [ IF EXISTS ] 存储过程名称 ;
注意:
在命令行中,执行创建存储过程的SQL时,需要通过关键字 delimiter 指定SQL语句的结束符。
这个是因为在存储过程中的内部可能会有
;
的作为结束的语句,此时在命令行中,就认为该;
是该语句的结束符,该存储过程的后续不能就得不到执行:sqlcreate procedure p1() begin select count(*) from student; end;
这里的
end;
就得不到执行,此时可以通过delimiter指令修改mysql命令行中的结束符为$$
等其他不会引起冲突的符号。sqldelimiter $$;
⑤演示示例
-- 存储过程基本语法
-- 创建
create procedure p1()
begin
select count(*) from student;
end;
-- 调用
call p1();
-- 查看
select * from information_schema.ROUTINES where ROUTINE_SCHEMA = 'itcast';
show create procedure p1;
-- 删除
drop procedure if exists p1;
(3)变量
在MySQL中变量分为三种类型: 系统变量、用户定义变量、局部变量。
①系统变量
系统变量 是MySQL服务器提供,不是用户定义的,属于服务器层面。分为全局变量(GLOBAL)、会话变量(SESSION)。默认查询的是session会话变量。
1). 查看系统变量
SHOW [ SESSION | GLOBAL ] VARIABLES ; -- 查看所有系统变量
SHOW [ SESSION | GLOBAL ] VARIABLES LIKE '......'; -- 可以通过LIKE模糊匹配方式查找变量
SELECT @@[SESSION | GLOBAL] 系统变量名; -- 查看指定变量的值
2). 设置系统变量
SET [ SESSION | GLOBAL ] 系统变量名 = 值 ;
SET @@[SESSION | GLOBAL]系统变量名 = 值 ;
注意:
如果没有指定SESSION/GLOBAL,默认是SESSION,会话变量。
mysql服务重新启动之后,所设置的全局参数会失效,要想不失效,可以在 /etc/my.cnf 中配置。
- A. 全局变量(GLOBAL): 全局变量针对于所有的会话。
- B. 会话变量(SESSION): 会话变量针对于单个会话,在另外一个会话窗口就不生效了。
演示示例:
-- 查看系统变量
show session variables ;
show session variables like 'auto%';
show global variables like 'auto%';
select @@global.autocommit; -- 查看指定global级别下该变量的值
select @@session.autocommit; -- 查看指定session级别下该变量的值
-- 设置系统变量
set session autocommit = 1; -- 改变的只是当前会话
insert into course(id, name) VALUES (6, 'ES');
set global autocommit = 0;
select @@global.autocommit;
②用户定义变量
用户定义变量 是用户根据需要自己定义的变量,用户变量不用提前声明,在用的时候直接用 "@变量名" 使用就可以。其作用域为当前连接(只在当前会话有效)。
1). 赋值
方式一:
SET @var_name = expr [, @var_name = expr] ... ;
SET @var_name := expr [, @var_name := expr] ... ;
赋值时,可以使用 = ,也可以使用 := 。
方式二:
SELECT @var_name := expr [, @var_name := expr] ... ;
SELECT 字段名 INTO @var_name FROM 表名;
2). 使用
SELECT @var_name ;
注意: 用户定义的变量无需对其进行声明或初始化,只不过获取到的值为NULL。
演示示例
-- 赋值
set @myname = 'itcast';
set @myage := 10;
set @mygender := '男',@myhobby := 'java';
select @mycolor := 'red';
select count(*) into @mycount from tb_user;
-- 使用
select @myname,@myage,@mygender,@myhobby;
select @mycolor , @mycount;
select @abc;
③局部变量
局部变量 是根据需要定义的在局部生效的变量,访问之前,需要DECLARE声明。可用作存储过程内的局部变量和输入参数,局部变量的范围是在其内声明的BEGIN ... END块。
1). 声明
DECLARE 变量名 变量类型 [DEFAULT ... ] ;
变量类型就是数据库字段类型:INT、BIGINT、CHAR、VARCHAR、DATE、TIME等。
2). 赋值
SET 变量名 = 值 ;
SET 变量名 := 值 ;
SELECT 字段名 INTO 变量名 FROM 表名 ... ;
演示示例
-- 声明局部变量 - declare
-- 赋值
create procedure p2()
begin
declare stu_count int default 0;
select count(*) into stu_count from student;
select stu_count;
end;
call p2();
(4)if
① 介绍
if 用于做条件判断,具体的语法结构为:
IF 条件1 THEN
.....
ELSEIF 条件2 THEN -- 可选
.....
ELSE -- 可选
.....
END IF; -- 结束
在if条件判断的结构中,ELSE IF 结构可以有多个,也可以没有。 ELSE结构可以有,也可以没有。
②案例
根据定义的分数score变量,判定当前分数对应的分数等级。
- score >= 85分,等级为优秀。
- score >= 60分 且 score < 85分,等级为及格。
- score < 60分,等级为不及格。
create procedure p3()
begin
declare score int default 58;
declare result varchar(10);
if score >= 85 then
set result := '优秀';
elseif score >= 60 then
set result := '及格';
else
set result := '不及格';
end if;
select result;
end;
call p3();
上述的需求我们虽然已经实现了,但是也存在一些问题,比如:score 分数我们是在存储过程中定义死的,而且最终计算出来的分数等级,我们也仅仅是最终查询展示出来而已。
那么我们能不能,把score分数动态的传递进来,计算出来的分数等级是否可以作为返回值返回呢?答案是肯定的,我们可以通过接下来所讲解的 参数 来解决上述的问题。
(5)参数
①介绍
参数的类型,主要分为以下三种:IN、OUT、INOUT。 具体的含义如下:
用法:
CREATE PROCEDURE 存储过程名称 ([ IN/OUT/INOUT 参数名 参数类型 ])
BEGIN
-- SQL语句
END ;
②案例一in&out
根据传入参数score,判定当前分数对应的分数等级,并返回。
- score >= 85分,等级为优秀。
- score >= 60分 且 score < 85分,等级为及格。
- score < 60分,等级为不及格。
create procedure p4(in score int, out result varchar(10)) -- 定义 输入输出 参数
begin
if score >= 85 then
set result := '优秀';
elseif score >= 60 then
set result := '及格';
else
set result := '不及格';
end if;
end;
-- 定义用户变量 @result来接收返回的数据, 用户变量可以不用声明
call p4(18, @result);
select @result;
③案例二-inout
将传入的200分制的分数,进行换算,换算成百分制,然后返回。
create procedure p5(inout score double)
begin
set score := score * 0.5;
end;
set @score = 198; -- 用户变量,不用声明,可以直接设置set
call p5(@score);
select @score;
(6)case
①介绍
case结构及作用,和我们在基础篇中所讲解的流程控制函数很类似。有两种语法格式:
语法1:
-- 含义: 当case_value的 值为 when_value1 时,执行statement_list1,当值为 when_value2时,执行statement_list2, 否则就执行 statement_list
CASE case_value
WHEN when_value1 THEN statement_list1
[ WHEN when_value2 THEN statement_list2] ...
[ ELSE statement_list ]
END CASE;
语法2:
-- 含义: 当 条件search_condition1成立 时,执行statement_list1,当条件search_condition2成立时,执行statement_list2, 否则就执行 statement_list
CASE
WHEN search_condition1 THEN statement_list1
[WHEN search_condition2 THEN statement_list2] ...
[ELSE statement_list]
END CASE;
②案例
根据传入的月份,判定月份所属的季节(要求采用case结构)。
- 1-3月份,为第一季度
- 4-6月份,为第二季度
- 7-9月份,为第三季度
- 10-12月份,为第四季度
create procedure p6(in month int)
begin
declare result varchar(10);
case
when month >= 1 and month <= 3 then
set result := '第一季度';
when month >= 4 and month <= 6 then
set result := '第二季度';
when month >= 7 and month <= 9 then
set result := '第三季度';
when month >= 10 and month <= 12 then
set result := '第四季度';
else
set result := '非法参数';
end case ;
select concat('您输入的月份为: ',month, ', 所属的季度为: ',result);
end;
call p6(4);
call p6(16);
注意:如果判定条件有多个,多个条件之间,可以使用 and 或 or 进行连接。
concat()函数,用于字符串拼接。
(7)while
①介绍
while 循环是有条件的循环控制语句。满足条件后,再执行循环体中的SQL语句。具体语法为:
-- 先判定条件,如果条件为true,则执行逻辑,否则,不执行逻辑
WHILE 条件 DO
-- SQL逻辑...
END WHILE;
②案例
计算从1累加到n的值,n为传入的参数值。
-- A. 定义局部变量, 记录累加之后的值;
-- B. 每循环一次, 就会对n进行减1 , 如果n减到0, 则退出循环
create procedure p7(in n int)
begin
declare total int default 0;
while n>0 do
set total := total + n;
set n := n - 1;
end while;
select total;
end;
call p7(100);
(8)repeat
① 介绍
repeat是有条件的循环控制语句, 当满足until声明的条件的时候,则退出循环 。具体语法为:
-- 先执行一次逻辑,然后判定UNTIL条件是否满足,如果满足,则退出。如果不满足,则继续下一次循环
REPEAT
-- SQL逻辑...
UNTIL 条件
END REPEAT;
②案例
计算从1累加到n的值,n为传入的参数值。(使用repeat实现)
-- A. 定义局部变量, 记录累加之后的值;
-- B. 每循环一次, 就会对n进行-1 , 如果n减到0, 则退出循环
create procedure p8(in n int)
begin
declare total int default 0;
repeat
set total := total + n;
set n := n - 1;
until n <= 0
end repeat;
select total;
end;
call p8(10);
call p8(100);
(9)loop
①介绍
LOOP 实现简单的循环,如果不在SQL逻辑中增加退出循环的条件,可以用其来实现简单的死循环。LOOP可以配合一下两个语句使用:
- LEAVE :配合循环使用,退出循环。(相当于java中的break)
- ITERATE:必须用在循环中,作用是**跳过当前循环剩下的语句,直接进入下一次循环**。(相当于java中的continue)
[begin_label:] LOOP
-- SQL逻辑...
END LOOP [end_label];
LEAVE label; -- 退出指定标记的循环体,这里的label就是创建loop中指定的标识
ITERATE label; -- 直接进入下一次循环
上述语法中出现的 begin_label,end_label,label 指的都是我们所自定义的标记。
②案例一-leave
计算从1累加到n的值,n为传入的参数值。
-- A. 定义局部变量, 记录累加之后的值;
-- B. 每循环一次, 就会对n进行-1 , 如果n减到0, 则退出循环 ----> leave xx
create procedure p9(in n int)
begin
declare total int default 0;
sum:loop
if n<=0 then
leave sum;
end if;
set total := total + n;
set n := n - 1;
end loop sum;
select total;
end;
call p9(100);
③案例二-iterate
计算从1到n之间的偶数累加的值,n为传入的参数值。
-- A. 定义局部变量, 记录累加之后的值;
-- B. 每循环一次, 就会对n进行-1 , 如果n减到0, 则退出循环 ----> leave xx
-- C. 如果当次累加的数据是奇数, 则直接进入下一次循环. --------> iterate xx
create procedure p10(in n int)
begin
declare total int default 0;
sum:loop
if n<=0 then
leave sum;
end if;
if n%2 = 1 then
set n := n - 1;
iterate sum;
end if;
set total := total + n;
set n := n - 1;
end loop sum;
select total;
end;
call p10(100);
(10)游标
①介绍
游标(CURSOR)是用来存储查询结果集的数据类型 , 在存储过程和函数中可以使用游标对结果集进行循环的处理。 游标的使用包括游标的声明、OPEN、FETCH 和 CLOSE,其语法分别如下。
A. 声明游标-declare
DECLARE 游标名称 CURSOR FOR 查询语句 ;
B. 打开游标-open
OPEN 游标名称 ;
C. 获取游标记录-fetch
FETCH 游标名称 INTO 变量 [, 变量 ] ;
D. 关闭游标-close
CLOSE 游标名称 ;
② 案例
根据传入的参数uage,来查询用户表tb_user中,所有的用户年龄小于等于uage的 用户姓名(name)和专业(profession),并将用户的姓名和专业插入到所创建的一张新表(id,name,profession)中。
-- 逻辑:
-- A. 声明游标, 存储查询结果集
-- B. 准备: 创建表结构
-- C. 开启游标
-- D. 获取游标中的记录
-- E. 插入数据到新表中
-- F. 关闭游标
create procedure p11(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
-- 游标的声明需要在普通变量之后
declare u_cursor cursor for select name,profession from tb_user where age <= uage;
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
open u_cursor;
while true do
fetch u_cursor into uname,upro;
insert into tb_user_pro values (null, uname, upro);
end while;
close u_cursor;
end;
call p11(30);
上述的存储过程,最终我们在调用的过程中,会报错,之所以报错是因为**上面的while循环中,并没有退出条件。当游标的数据集获取完毕之后,再次获取数据,就会报错,**从而终止了程序的执行。
但是此时,tb_user_pro表结构及其数据都已经插入成功了,我们可以直接刷新表结构,检查表结构中的数据。
上述的功能,虽然我们实现了,但是逻辑并不完善,而且程序执行完毕,获取不到数据,数据库还报错。 接下来,我们就需要来完成这个存储过程,并且解决这个问题。
要想解决这个问题,就需要通过MySQL中提供的 条件处理程序 Handler 来解决。
(11)条件处理程序-Handler
① 介绍
条件处理程序(Handler)可以用来定义在流程控制结构执行过程中遇到问题时相应的处理步骤。具体语法为:
DECLARE handler_action HANDLER FOR condition_value [, condition_value]... statement ;
handler_action 的取值:
CONTINUE: 继续执行当前程序
EXIT: 终止执行当前程序
condition_value 的取值:
SQLSTATE sqlstate_value: 状态码,如 02000
SQLWARNING: 所有以01开头的SQLSTATE代码的简写
NOT FOUND: 所有以02开头的SQLSTATE代码的简写
SQLEXCEPTION: 所有没有被SQLWARNING 或 NOT FOUND捕获的SQLSTATE代码的简写
②案例
我们继续来完成在上一小节提出的这个需求,并解决其中的问题。
根据传入的参数uage,来查询用户表tb_user中,所有的用户年龄小于等于uage的用户姓名(name)和专业(profession),并将用户的姓名和专业插入到所创建的一张新表(id,name,profession)中。
A. 通过SQLSTATE指定具体的状态码
-- 逻辑:
-- A. 声明游标, 存储查询结果集
-- B. 准备: 创建表结构
-- C. 开启游标
-- D. 获取游标中的记录
-- E. 插入数据到新表中
-- F. 关闭游标
create procedure p11(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
declare u_cursor cursor for select name,profession from tb_user where age <=uage;
-- 声明条件处理程序 : 当SQL语句执行抛出的状态码为02000时,将关闭游标u_cursor,并退出
declare exit handler for SQLSTATE '02000' close u_cursor;
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
open u_cursor;
while true do
fetch u_cursor into uname,upro;
insert into tb_user_pro values (null, uname, upro);
end while;
close u_cursor;
end;
call p11(30);
B. 通过SQLSTATE的代码简写方式 NOT FOUND
02 开头的状态码,代码简写为 NOT FOUND
create procedure p12(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
declare u_cursor cursor for select name,profession from tb_user where age <=uage;
-- 声明条件处理程序 : 当SQL语句执行抛出的状态码为02开头时,将关闭游标u_cursor,并退出
declare exit handler for not found close u_cursor;
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
open u_cursor;
while true do
fetch u_cursor into uname,upro;
insert into tb_user_pro values (null, uname, upro);
end while;
close u_cursor;
end;
call p12(30);
具体的错误状态码,可以参考官方文档:
https://dev.mysql.com/doc/refman/8.0/en/declare-handler.html
https://dev.mysql.com/doc/mysql-errors/8.0/en/server-error-reference.html
4.3 存储函数
(1)介绍
存储函数是**有返回值的存储过程,存储函数的==参数只能是IN类型的**==。具体语法如下:
CREATE FUNCTION 存储函数名称 ([ 参数列表 ])
RETURNS type [characteristic ...]
BEGIN
-- SQL语句
RETURN ...; -- 返回结果
END ;
characteristic说明:
- DETERMINISTIC:相同的输入参数总是产生相同的结果
- NO SQL :不包含 SQL 语句。
- READS SQL DATA:包含读取数据的语句,但不包含写入数据的语句。
(2)案例
计算从1累加到n的值,n为传入的参数值。
create function fun1(n int)
returns int deterministic -- 相同的输入参数总是产生相同的结果
begin
declare total int default 0;
while n>0 do
set total := total + n;
set n := n - 1;
end while;
return total;
end;
select fun1(50);
在mysql8.0版本中binlog(二进制日志)默认是开启的,一旦开启了,mysql就要求在定义存储过程时,需要指定characteristic特性,否则就会报如下错误:
4.4 触发器
(1)介绍
触发器是与表有关的数据库对象,指在insert/update/delete之前(BEFORE)或之后(AFTER),触发并执行触发器中定义的SQL语句集合。触发器的这种特性可以协助应用在数据库端确保数据的完整性, 日志记录 , 数据校验等操作 。
使用别名OLD和NEW来引用触发器中发生变化的记录内容,这与其他的数据库是相似的。现在触发器还只支持行级触发,不支持语句级触发。
- 行级触发
- 比如执行update语句,影响了5行,触发器会执行5次
- 语句级触发
- 比如执行update语句,影响了5行,触发器只会执行1次
(2)语法
①创建
CREATE TRIGGER trigger_name
BEFORE/AFTER INSERT/UPDATE/DELETE
ON tbl_name FOR EACH ROW -- 行级触发器,目前Mysql8.0 只支持行级触发器
BEGIN
trigger_stmt ;
END;
② 查看
SHOW TRIGGERS ;
③删除
DROP TRIGGER [schema_name.]trigger_name ; -- 删除(指定数据库的)触发器
-- 如果没有指定 schema_name,默认为当前数据库 。
(3)案例-记录数据变更日志
通过触发器记录 tb_user 表的数据变更日志,将变更日志插入到日志表user_logs中, 包含增加,修改 , 删除 ;
表结构准备:
-- 准备工作 : 日志表 user_logs
create table user_logs(
id int(11) not null auto_increment,
operation varchar(20) not null comment '操作类型, insert/update/delete',
operate_time datetime not null comment '操作时间',
operate_id int(11) not null comment '操作的ID',
operate_params varchar(500) comment '操作参数',
primary key(`id`)
)engine=innodb default charset=utf8;
A. 插入数据触发器
create trigger tb_user_insert_trigger
after insert
on tb_user for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES
(null, 'insert', now(), new.id,
concat('插入的数据内容为: id=',new.id,',name=',new.name, ', phone=', NEW.phone, ', email=', NEW.email, ', profession=', NEW.profession));
end;
测试:
-- 查看
show triggers ;
-- 删除指定的触发器
drop trigger tb_user_insert_trigger;
-- 插入数据到tb_user
insert into tb_user(id, name, phone, email, profession, age, gender, status, createtime)
VALUES (26,'三皇子','18809091212','erhuangzi@163.com','软件工程',23,'1','1',now());
测试完毕之后,检查日志表中的数据是否可以正常插入,以及插入数据的正确性。
B. 修改数据触发器
create trigger tb_user_update_trigger
after update on tb_user for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES
(null, 'update', now(), new.id,
concat('更新之前的数据: id=',old.id,',name=',old.name, ', phone=',old.phone, ', email=', old.email, ', profession=', old.profession,
' | 更新之后的数据: id=',new.id,',name=',new.name, ', phone=', NEW.phone, ', email=', NEW.email, ', profession=', NEW.profession));
end;
测试
-- 查看
show triggers ;
-- 更新
update tb_user set profession = '会计' where id = 23;
update tb_user set profession = '会计' where id <= 5; -- 因为使用的each row 行级触发器,执行update更新了5行,对应的触发器也会执行5次
测试完毕之后,检查日志表中的数据是否可以正常插入,以及插入数据的正确性。
C. 删除数据触发器
create trigger tb_user_delete_trigger
after delete on tb_user for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES
(null, 'delete', now(), old.id,
concat('删除之前的数据: id=',old.id,',name=',old.name, ', phone=',
old.phone, ', email=', old.email, ', profession=', old.profession));
end;
测试
-- 查看
show triggers ;
-- 删除数据
delete from tb_user where id = 26;
测试完毕之后,检查日志表中的数据是否可以正常插入,以及插入数据的正确性。
4.5 小结
5、🚀 锁
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
5.1 概述
锁是计算机**协调多个进程或线程并发访问某一资源的机制。在数据库中,除传统的计算资源(CPU、RAM、I/O)的争用以外,数据也是一种供许多用户共享的资源。如何保证数据并发访问的一致性、有效性**是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。
MySQL中的锁,按照锁的粒度分,分为以下三类:
- 全局锁:锁定数据库中的所有表。
- 表级锁:每次操作锁住整张表。
- 行级锁:每次操作锁住对应的行数据。
5.2 🌟 全局锁
(1)介绍
全局锁就是对整个数据库实例加锁,加锁后整个实例就处于只读状态,后续的DML的写语句,DDL语句,已经更新操作的事务提交语句都将被阻塞。
(2)🌟 使用场景
其典型的使用场景是做全库的逻辑备份,对所有的表进行锁定,从而获取一致性视图,保证数据的完整性。
为什么全库逻辑备份,就需要加全就锁呢?
A. 我们一起先来分析一下不加全局锁,可能存在的问题。
假设在数据库中存在这样三张表: tb_stock 库存表,tb_order 订单表,tb_orderlog 订单日志表。
- 在进行数据备份时,先备份了tb_stock库存表。
- 然后接下来,在业务系统中,执行了下单操作,扣减库存,生成订单(更新tb_stock表,插入tb_order表)。
- 然后再执行备份 tb_order表的逻辑。
- 业务中执行插入订单日志操作。
- 最后,又备份了tb_orderlog表。
此时备份出来的数据,是存在问题的。因为备份出来的数据,tb_stock表与tb_order表的数据不一致(有最新操作的订单信息,但是库存数没减)。
那如何来规避这种问题呢? 此时就可以借助于MySQL的全局锁来解决。
B. 再来分析一下加了全局锁后的情况
对数据库进行进行逻辑备份之前,先对整个数据库加上全局锁,一旦加了全局锁之后,其他的DDL、DML全部都处于阻塞状态,但是可以执行DQL语句,也就是处于只读状态,而数据备份就是查询操作。那么数据在进行逻辑备份的过程中,数据库中的数据就是不会发生变化的,这样就保证了数据的一致性和完整性。
(3)语法
①加全局锁
flush tables with read lock ;
②数据备份
mysqldump [-h 192.168.200.202] -uroot –p1234 itcast > ./itcast.sql
数据备份的相关指令, 在后面MySQL管理章节, 还会详细讲解.
③释放锁
unlock tables ;
(4)🌟 特点
数据库中加全局锁,是一个比较重的操作,存在以下问题:
- 如果在主库上备份,那么在备份期间都不能执行更新,业务基本上就得停摆。
- 如果在从库上备份,那么在备份期间从库不能执行主库同步过来的二进制日志(binlog),会导致主从延迟。
在InnoDB引擎中,我们可以在备份时加上参数 --single-transaction 参数来完成**不加锁的一致性数据备份**。
mysqldump --single-transaction [-h 192.168.200.202] -uroot –p123456 itcast > itcast.sql
-- MySQL的底层利用的是快照读的方式实现的
MySQL的底层利用的是快照读的方式实现的
5.3 🌟 表级锁
(1)介绍
表级锁,每次操作锁住整张表。锁定粒度大,发生锁冲突的概率最高,并发度最低。应用在MyISAM、InnoDB、BDB等存储引擎中。
对于表级锁,主要分为以下三类:
- 表锁
- 元数据锁(meta data lock,MDL)
- 意向锁
(2)🌟 表锁
①分类
表共享读锁
表独占写锁
对于表锁,分为两类:
- 表共享读锁(read lock) - 简称为读锁
- 表独占写锁(write lock)- 简称为写锁
- 这里的独占意思是,其他客户端的
读和写
操作都会被阻塞, - 而**当前客户端的读和写不会被阻塞**
- 这里的独占意思是,其他客户端的
②语法
- 加锁:lock tables 表名... read/write。
lock tables 表名... read/write
- 释放锁:unlock tables 或者 客户端断开连接 。
unlock tables
或者 将当前客户端断开连接
③特点
A. 读锁
左侧为客户端一,对指定表加了读锁,不会影响右侧客户端二的读,但是会阻塞右侧客户端的写。
测试:
B. 写锁
左侧为客户端一,对指定表加了写锁,会阻塞右侧客户端的读和写。
测试:
④🌟 结论
结论:
读锁不会阻塞其他客户端的读,但是会阻塞写。
- 当前客户端和其他客户端都可以读
- 当前客户端和其他客户端都不可以写
写锁既会阻塞其他客户端的读,又会阻塞其他客户端的写。
- 注意 这里阻塞的
读和写
都指的是其他客户端- 当前客户端的读和写不会被阻塞
(3)🌟 元数据锁-MDL
①概述
meta data lock , 元数据锁,简写MDL。
MDL加锁过程是系统自动控制,无需显式使用,在访问一张表的时候会自动加上。
MDL锁主要作用是维护表元数据的数据一致性,在表上有活动事务的时候,不可以对元数据进行写入操作。为了避免DML与DDL冲突,保证读写的正确性。
这里的元数据,大家可以简单理解为就是一张表的表结构。 也就是说,某一张表涉及到未提交的事务时,是不能够修改这张表的表结构的。
在MySQL5.5中引入了MDL:
- 当对一张表进行增删改查的时候,加MDL读锁(共享);
- 当对表结构进行变更操作的时候,加MDL写锁(排他)。
常见的SQL操作时,所添加的元数据锁:

②🌟 演示
我们可以通过下面的SQL,来**查看数据库中的元数据锁**的情况:
sqlselect object_type,object_schema,object_name,lock_type,lock_duration from performance_schema.metadata_locks ;
我们在操作过程中,可以通过上述的SQL语句,来查看元数据锁的加锁情况。
1)元数据共享锁-相互兼容
当执行SELECT =》 shared_read
INSERT、UPDATE、DELETE、**Select ... for update**等语句时 => shared_write
添加的是**元数据共享锁(SHARED_READ /SHARED_WRITE),这两者之间是兼容**的。
对于客户端一:
begin;
select * from tb_user where id = 1;
commit; -- 为了查看效果,事务的提交可以延后执行
对于客户端二:
begin;
update tb_user set name = '小鹏' where id = 1;
commit;
注意:当事务提交后,之前给表添加的元数据锁都会消失,也就是说,元数据锁的添加和消失,是动态的
2)排他锁和其他共享锁互斥
当执行SELECT语句时,添加的是元数据共享锁(SHARED_READ),会阻塞元数据排他锁(EXCLUSIVE),他们二者之间是互斥的。
例如,使用alter table.. 修改表结构,这时会给表加上exclusive元数据排它锁
对于客户端一:
begin;
select * from tb_user where id = 1;
commit; -- 为了查看效果,事务的提交可以延后执行
对于客户端二:执行了alter table 改变了表结构,会给操作的表添加元数据排他锁
begin;
alter table tb_user add column test_col varchar(10);
commit;
客户端一,执行select操作,添加元数据共享锁
客户端二,被阻塞
tb_user表,执行前后的元数据锁的信息
(4)🌟 意向锁
①介绍
为了避免DML在执行时,加的行锁与表锁的冲突,在InnoDB中引入了意向锁,使得表锁不用检查每行数据是否加锁,使用意向锁来减少表锁的检查。
1)没有意向锁时
假如没有意向锁,客户端一对表加了行锁后,客户端二如何给表加表锁呢,来通过示意图简单分析一下:
首先客户端一,开启一个事务,然后执行DML操作,在执行DML语句时,会对涉及到的行加行锁。
当客户端二,想对这张表加表锁时,会检查当前表是否有对应的行锁,如果没有,则添加表锁,此时就会从第一行数据,检查到最后一行数据,效率较低。
2)有了意向锁之后
客户端一,在执行DML操作时,会对涉及的行加行锁,同时也会==对该表加上意向锁==。
而其他客户端,在对这张表加表锁的时候,会根据该表上所加的意向锁来判定是否可以成功加表锁,(判断当前所加的意向锁和将要添加的表锁是否是兼容的),而不用逐行判断行锁情况了。
②分类
- 意向共享锁(IS): 由语句select ... lock in share mode添加 。 与 表锁共享锁(read)兼容,与表锁排他锁(write)互斥。
- 意向排他锁(IX): 由insert、update、delete、**select...for update**添加 。与表锁共享锁(read)及排他锁(write)都互斥,意向锁之间不会互斥。
一旦事务提交了,意向共享锁、意向排他锁,都会自动释放。
可以通以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from
performance_schema.data_locks;
③🌟演示
A. 意向共享锁与表读锁是兼容的
客户端一:
begin;
select * from tb_user where id = 1 lock in share mode;
-- lock in share mode 表示 会给这一行添加 共享行锁
-- 同时,会给该score表添加 意向共享锁
commit;
客户端二:
begin;
-- 添加表锁共享锁read 或 表锁排他锁write
lock tables tb_user read; -- 表锁共享锁read
-- 释放锁
unlock tables;
lock tables tb_user write; -- 表锁排他锁write
commit;
B. 意向排他锁与表读锁、写锁都是互斥的
客户端一:
begin;
update tb_user set name = '小小鹏' where id = 1;
commit;
客户端二:
begin;
-- 添加表锁共享锁read 或 表锁排他锁write
lock tables tb_user read; -- 表锁共享锁read
-- 释放锁
unlock tables;
lock tables tb_user write; -- 表锁排他锁write
commit;
5.4 🌟 行级锁
(1)🌟 介绍
行级锁,每次操作锁住对应的行数据。锁定粒度最小,发生锁冲突的概率最低,并发度最高。应用在InnoDB存储引擎中。
InnoDB的数据是基于索引(聚集索引和二级索引)组织的,行锁是**通过对索引上的索引项加锁来实现的,而不是对记录加的锁**。对于行级锁,主要分为以下三类:
- 行锁(Record Lock):锁定单个行记录的锁,防止其他事务对此行进行update和delete。在RC(read commit 读已提交)、RR(repeat read 可重复读)隔离级别下都支持。
- 间隙锁(Gap Lock):锁定索引记录间隙(不含该记录),确保索引记录间隙不变,防止其他事务在这个间隙进行insert,产生幻读。在RR隔离级别下都支持。
- 临键锁(Next-Key Lock):行锁和间隙锁组合,同时锁住数据,并锁住数据前面的间隙Gap。在RR隔离级别下支持。
🌟间隙锁和临键锁的基本概念(重点)
- 间隙锁:锁定索引记录间隙(不包含该记录),
- 比如此时的索引是id时,并且lock_data 显示的是8,表示的是**锁定8前面一个的一个间隙**,假设现在8前面一位的id为3,那么此时该间隙锁,锁定的就是3-8之间的间隙,也就是(3,8);
- 临键锁:行锁和间隙锁的组合,会锁住数据,同时锁住数据前面的一个间隙Gap
- 如果有记录8,9,10,20,30
- 对20加临键锁,会锁定(10,20]这个区间
- 不会锁定(8,20]这个区间
(2)🌟 行锁
①🌟 介绍
InnoDB实现了以下两种类型的行锁:
共享锁(S):允许一个事务去读一行,阻止其他事务获得相同数据集的排它锁。
排他锁(X):允许获取排他锁的事务更新数据,获取排它锁后,会阻止其他事务**获得相同数据集的共享锁和排他锁。**
注意:
这里的兼容和冲突判断的前提,是在对同一个数据集而言的,比如操作的都是id为1的数据行
两种行锁的兼容情况如下:
常见的SQL语句,在执行时,所加的行锁如下:
②🌟 演示
默认情况下,InnoDB在RR-可重复读=》- REPEATABLE READ事务隔离级别运行,InnoDB使用 next-key 锁进行搜索和索引扫描,以防止幻读。
- 针对唯一索引进行检索时,对已存在的记录进行等值匹配时,将会自动优化为行锁。
- InnoDB的行锁是针对于索引加的锁,如果**不通过索引条件检索数据,那么InnoDB将对表中的所有记录加锁**,此时 就会升级为表锁。
可以通过以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
③示例演示-行锁
数据准备:
CREATE TABLE `stu` (
`id` int NOT NULL PRIMARY KEY AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`age` int NOT NULL
) ENGINE = InnoDB CHARACTER SET = utf8mb4;
INSERT INTO `stu` VALUES (1, 'tom', 1);
INSERT INTO `stu` VALUES (3, 'cat', 3);
INSERT INTO `stu` VALUES (8, 'rose', 8);
INSERT INTO `stu` VALUES (11, 'jetty', 11);
INSERT INTO `stu` VALUES (19, 'lily', 19);
INSERT INTO `stu` VALUES (25, 'luci', 25);
select * from stu;
演示行锁的时候,我们就通过上面这张表来演示一下。

1)普通的select语句-不加锁
A. 普通的select语句,执行时,不会加锁。
对于客户端一,执行普通的select语句
begin;
select * from stu where id = 1;
commit;
-- 意向锁及行锁的加锁情况
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;

2)共享锁和共享锁之间兼容
B. select...lock in share mode,加共享锁,共享锁与共享锁之间兼容。
对于客户端一和二,都尝试给数据行添加共享锁
begin;
select * from stu where id = 1 lock in share mode; -- 给stu表中id为1的数据行添加共享锁
commit;


注意: 同样的当事务commit提交后,在事务中添加的行锁等其他锁都会自动释放
3)共享锁与排他锁之间互斥
对于客户端一,执行的还是添加共享行锁操作
begin;
select * from stu where id = 1 lock in share mode; -- 给stu表中id为1的数据行添加共享锁
commit;
对于客户端二,尝试给数据行添加排他锁,比如update操作...
begin;
update stu set name = 'Java-3' where id = 3; -- 给stu表中id为3的数据行添加排他锁
update stu set name = 'Java-1' where id = 1; -- 给stu表中id为1的数据行添加排他锁
commit;
客户端一获取的是id为1这行的共享锁

客户端二是可以获取id为3这行的排它锁的,因为不是同一行数据,所以客户端二执行id=3的语句时,不会被阻塞。
而如果客户端二想获取id为1这行的排他锁,会处于阻塞状态,因为共享锁与排他锁之间互斥。
3) 排他锁与排他锁之间互斥
C. 排他锁与排他锁之间互斥
当客户端一,执行update语句,会为id为1的记录加排他锁; 客户端二,如果也执行update语句更新id为1的数据,也要为id为1的数据加排他锁,但是客户端二会处于阻塞状态,因为排他锁之间是互斥的。 直到客户端一,把事务提交了,才会把这一行的行锁释放,此时客户端二才能获取到这一行的排他锁,解除阻塞。
对于客户端一,执行update语句,加排它锁
begin;
update stu set name = 'Java-10' where id = 1; -- 给stu表中id为1的数据行添加排他锁
end;

**对于客户端二,**如果也执行update语句更新id为1的数据,也要为id为1的数据加排他锁
begin;
update stu set name = 'Java-20' where id = 1; -- 给stu表中id为1的数据行添加排他锁
end;
4) 无索引行锁升级为表锁
D. 无索引行锁升级为表锁
stu表中数据如下:
select * from stu;

我们在两个客户端中执行如下操作:
在客户端一中,开启事务,并执行update语句,更新name为Lily的数据,也就是id为19的记录 。然后在客户端二中更新id为3的记录,却不能直接执行,会处于阻塞状态,为什么呢?= 》添加了表锁
原因就是因为此时,客户端一,根据name字段进行更新时,name字段是没有索引的,如果没有索引,此时行锁会升级为表锁(因为行锁是对索引项加的锁,而name没有索引)。
对于客户端1,根据name(非索引字段)进行条件查询,会让行锁升级为表锁
begin;
update stu set name = 'Spring-1' where name = 'lily';
end;

此时在客户端2中,更新id=3的数据时,会被阻塞
begin;
update stu set name = 'Spring-2' where id = 3;
end;

接下来,我们再针对name字段建立索引,索引建立之后,再次做一个测试:
create index idx_stu_name on stu(name);

此时我们可以看到,客户端一,开启事务,然后依然是根据name进行更新。而客户端二,在更新id为3的数据时,更新成功,并未进入阻塞状态。 这样就说明,我们**根据索引字段进行更新操作,就可以避免行锁升级为表锁的情况。**


(3)间隙锁&临键锁
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用 next-key 锁进行搜索和索引扫描,以防止幻读。
- 索引上的等值查询(唯一索引),给不存在的记录加锁时, 优化为间隙锁 。
- 索引上的等值查询(非唯一普通索引),向右遍历时最后一个值不满足查询需求时,next-keylock 退化为间隙锁。
- 索引上的范围查询(唯一索引)--会访问到不满足条件的第一个值为止。
注意:
间隙锁唯一目的是**防止其他事务插入间隙。间隙锁可以共存,一个事务采用的间隙锁不会阻止另一个事务在同一间隙上采用间隙锁。**
🌟间隙锁和临键锁的基本概念(重点)
- 间隙锁:锁定索引记录间隙(不包含该记录),
- 比如此时的索引是id时,并且lock_data 显示的是8,表示的是**锁定8前面一个的一个间隙**,假设现在8前面一位的id为3,那么此时该间隙锁,锁定的就是3-8之间的间隙,也就是(3,8);
- 临键锁:行锁和间隙锁的组合,会锁住数据,同时锁住数据前面的一个间隙Gap
- 如果有记录8,9,10,20,30
- 对20加临键锁,会锁定(10,20]这个区间
- 不会锁定(8,20]这个区间
(4)🚀间隙锁/临键锁-演示
①等值查询-唯一索引
A. 索引上的等值查询(唯一索引),给不存在的记录加锁时, 优化为间隙锁-GAP 。
从最后表stu的间隙锁的具体信息可以看出,如果不存在的记录是id = 5 的记录行,那么这个时候会看id = 5理论上要在的位置(索引结构最后保存的数据是有序的),也就是id = 3和8之间。
也就是给这里id = 8的位置添加间隙锁Gap。
客户端一
begin;
update stu set age = 10 where id = 5; -- stu表中不存在id = 5 的记录
end;

客户端二
begin;
insert into stu values(7,'Ruby',7);
end;

注意:
这里的GAP,意思是间隙锁Gap Lock的意思;锁定当前索引为id的记录间隙(不含该记录),确保索引记录间隙不变。防止其他事务在这个间隙中进行insert,进而防止幻读。
这里lock_data显示的数据为8,表示的是该间隙锁的位置;
具体含义为锁住索引id = 8 和 前一个索引id之间的间隙,也就是这个的3和8之间
- (3,8)
②等值查询-非唯一普通索引
B. 索引上的等值查询(非唯一普通索引),向右遍历时最后一个值不满足查询需求时,next-keylock 退化为间隙锁。
具体分析一下:
我们知道InnoDB的B+树索引,叶子节点是有序的双向链表。 假如,我们要根据这个二级索引查询值为18的数据,并加上共享锁,我们是只锁定18这一行就可以了吗?
并不是,因为是**非唯一索引,这个结构中可能有多个18的存在,所以,在加锁时会继续往后找,找到一个不满足条件的值**(当前案例中也就是21)。
此时会对18加临键锁,并对21之前的间隙(这个间隙这是对前一个间隙而言)加锁(此时这个21的GAP间隙锁
就是next-keylock退化而来的)。
🌟间隙锁和临键锁的基本概念(重点)
- 间隙锁:锁定索引记录间隙(不包含该记录),
- 比如此时的索引是id时,并且lock_data 显示的是8,表示的是**锁定8前面一个的一个间隙**,假设现在8前面一位的id为3,那么此时该间隙锁,锁定的就是3-8之间的间隙,也就是(3,8);
- 临键锁:行锁和间隙锁的组合,会锁住数据,同时锁住数据前面的一个间隙Gap
- 如果有记录8,9,10,20,30
- 对20加临键锁,会锁定(10,20]这个区间
- 不会锁定(8,20]这个区间
客户端一,创建age的 非唯一普通索引
create index idx_syu_age on stu(age);
根据非唯一普通索引进行查询,并添加共享行锁
select * from stu where age = 18 lock in share mode;

锁信息解读
idx_syu_age
上的 S 锁(临键锁):18, 8
- 锁定区间:(14, 18](即 age=14 到 age=18 之间的间隙 + age=18 记录本身)
- 主键上的 S,REC_NOT_GAP 锁:
8
- 仅锁定主键 id=8 这一行记录(不锁定间隙)
idx_syu_age
上的 S,GAP 锁:21, 11
- 锁定区间:(18, 21)(即 age=18 到 age=21 之间的间隙)
最终锁定范围(开闭区间表示)
- 记录锁:
- [18, 8](age=18 且 id=8 的记录)
- 间隙锁:
- (14, 18)(age=14 和 age=18 之间的间隙)
- (18, 21)(age=18 和 age=21 之间的间隙)
- 组合起来相当于:
- (14, 21)(即 age=14 到 age=21 之间的所有间隙,但不包括 age=14 和 age=21 的记录)
③🚀特殊情况-非唯一普通索引
1)特殊情况概述
基于索引idx_syu_age,最后的行锁的锁定范围 应该是:(14,18] , (18,21)
当客户端一,已经执行了select * from stu where age = 18 lock in share mode;添加了共享行锁,此时客户端二进行下列操作时,会出现一下特殊情况:
- 但是在insert操作时,对于边界情况age = 14 和age = 21时会出现被阻塞的情况。
- 在**update操作时**,除了当前行age =18 被锁住,其他的age都可以执行通过,不会被阻塞
-- 客户端二 进行下列操作时出现的特殊情况
begin;
-- 基于索引idx_syu_age,最后的行锁的锁定范围 应该是:(14,18] , (18,21)
-- 这些操作会被阻塞:
INSERT INTO stu VALUES (null, 'test1', 15); -- 落入 (14,18)
INSERT INTO stu VALUES (null, 'test2', 20); -- 落入 (18,21)
-- 这些操作不会被阻塞:
INSERT INTO stu VALUES (null, 'test3', 10); -- 小于14
INSERT INTO stu VALUES (null, 'test4', 22); -- 大于21
UPDATE stu SET name='test' WHERE age=14; -- age=14 本身未被锁定
UPDATE stu SET name='test' WHERE age=21; -- age=21 本身未被锁定
-- 特殊例子-被阻塞
insert into stu values(4,'catcat222',14); -- insert语句的age=14,虽然不在锁定的范围内,还是会被阻塞
insert into stu values(4,'catcat222',21); -- 同理也会被阻塞
-- 对于update语句
UPDATE stu SET name='test' WHERE age= 18 ;
UPDATE stu SET name='test' WHERE age= xx ; -- 只有当age = 18时才会被阻塞,其他都不被阻塞
commit;
2)锁范围总结(基于 idx_syu_age
索引)
临键锁 (Next-Key Lock):
(14, 18]
- 锁定区间:
age > 14 且 age ≤ 18
- 包含:间隙
(14, 18)
+ 记录age=18
- 目的:防止其他事务插入
age ∈ (14, 18]
的新记录(幻读)。
- 锁定区间:
间隙锁 (Gap Lock):
(18, 21)
- 锁定区间:
age > 18 且 age < 21
- 目的:防止其他事务插入
age ∈ (18, 21)
的新记录。
- 锁定区间:
主键记录锁 (Record Lock):
id=8
(对应age=18
)- 仅锁定主键为
8
的行,防止修改或删除。
组合起来相当于:
- (14, 21)(即 age=14 到 age=21 之间的所有间隙,但不包括 age=14 和 age=21 的记录)
- 仅锁定主键为
3)为什么某些操作会被阻塞?
1. INSERT 语句的阻塞逻辑
InnoDB 在执行 INSERT
时,会先检查**插入意向锁(Insert Intention Lock)**是否与现有锁冲突:
- 插入意向锁是一种特殊的间隙锁,表示“准备在某个间隙插入数据”。
- 如果插入的值落在被锁定的间隙内(或边界),则会被阻塞。
你的测试案例:
INSERT INTO stu VALUES (null, 'test1', 15);
- 插入
age=15
,落在(14, 18)
间隙内 → 被临键锁阻塞。
- 插入
INSERT INTO stu VALUES (null, 'test2', 20);
- 插入
age=20
,落在(18, 21)
间隙内 → 被间隙锁阻塞。
- 插入
INSERT INTO stu VALUES (4, 'catcat222', 14);
- 插入
age=14
,虽然age=14
本身未被锁定,但插入操作需要获取(11, 14]
或(14, 18)
的插入意向锁。 - 由于
(14, 18)
被临键锁锁定,插入意向锁与之冲突 → 被阻塞。 - 关键点:即使插入的值是已有值(
age=14
),InnoDB 仍会保守地检查间隙锁。
- 插入
INSERT INTO stu VALUES (4, 'catcat222', 21);
- 插入
age=21
,虽然age=21
本身未被锁定,但插入操作需要检查(18, 21)
间隙。 - 由于
(18, 21)
被间隙锁锁定 → 被阻塞。
- 插入
2. UPDATE 语句的阻塞逻辑
UPDATE stu SET name='test' WHERE age=18;
- 命中
age=18
的记录,该记录被临键锁锁定(S
锁)→ 被阻塞(其他事务不能修改)。
- 命中
UPDATE stu SET name='test' WHERE age=14;
或age=21;
age=14
和age=21
的记录未被锁定(只有间隙锁)→ 不会被阻塞。
- 为什么 UPDATE 不存在的记录不会被阻塞?
- 当执行
UPDATE
时,InnoDB 会:- 先查找记录:
- 如果记录存在,则尝试加锁(行锁或临键锁)。
- 如果记录不存在,则不会加任何锁(包括间隙锁)。
- 锁的范围取决于 WHERE 条件:
- 如果
WHERE age = 15
(精确匹配),而age=15
不存在,InnoDB 不会锁定任何记录或间隙,因此不会阻塞。 - 如果
WHERE age BETWEEN 15 AND 17
(范围查询),即使记录不存在,InnoDB 也会锁定符合条件的间隙(防止幻读)。
- 如果
- 先查找记录:
- 当执行
4)验证锁行为的正确姿势
1. 插入测试
操作 | 是否被阻塞 | 原因 |
---|---|---|
INSERT ... age=10 | ❌ 不阻塞 | age=10 < 14 ,不在任何锁定区间 |
INSERT ... age=15 | ✅ 阻塞 | age=15 ∈ (14, 18) |
INSERT ... age=18 | ✅ 阻塞 | age=18 被临键锁锁定 |
INSERT ... age=20 | ✅ 阻塞 | age=20 ∈ (18, 21) |
INSERT ... age=21 | ✅ 阻塞 | 插入需要检查 (18, 21) 间隙锁 |
INSERT ... age=22 | ❌ 不阻塞 | age=22 > 21 ,不在任何锁定区间 |
2. 更新测试
操作 | 是否被阻塞 | 原因 |
---|---|---|
UPDATE ... age=14 | ❌ 不阻塞 | 只有间隙锁,不锁定记录本身 |
UPDATE ... age=18 | ✅ 阻塞 | age=18 被临键锁锁定 |
UPDATE ... age=21 | ❌ 不阻塞 | 只有间隙锁,不锁定记录本身 |
UPDATE ... WHERE age = 15; | ❌ 不阻塞 | age=15 不存在,InnoDB 不会加锁 |
UPDATE ... WHERE age = 17; | ❌ 不阻塞 | age=17 不存在,InnoDB 不会加锁 |
5)总结
- INSERT 的阻塞范围比想象中更广:
- 即使插入的值是已有值(如
age=14
或age=21
),也会因为插入意向锁与间隙锁冲突而被阻塞。 - 这是 InnoDB 防止幻读的保守策略。
- 即使插入的值是已有值(如
- UPDATE 只锁定具体记录:
- 只有被锁定的记录(如
age=18
)会被阻塞更新,其他记录(如age=14
或age=21
,age=15、17这些不存在记录
)可以正常修改。
- 只有被锁定的记录(如
- 锁的边界行为:
- 临键锁
(14, 18]
包含右边界(age=18
),但不包含左边界(age=14
)。 - 间隙锁
(18, 21)
不包含任何边界。
- 临键锁
④范围查询-唯一索引
C. 索引上的范围查询(唯一索引)--会访问到不满足条件的第一个值为止。
对于客户端一而言,执行对于唯一索引id的范围查询sql语句
select * from stu where id >=19 lock in share mode;

查询的条件为id>=19,并添加共享锁。 此时我们可以根据数据库表中现有的数据,将数据分为三个部分:
[19]
(19,25]
(25,+∞]
所以数据库数据在加锁是,
- 将19加了行锁 => [19]
- 25的临键锁(包含25及25之前的间隙)=> (19,25]
- 正无穷的临键锁(正无穷及之前的间隙) => (25,+∞]
5.5 小结
6、🚀 InnoDB引擎
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
6.1 逻辑存储结构
InnoDB的逻辑存储结构如下图所示:
① 表空间-Tablespace
表空间是InnoDB存储引擎逻辑结构的最高层, 如果用户启用了参数 innodb_file_per_table(在8.0版本中默认开启) ,则每张表都会有一个表空间(xxx.ibd),一个mysql实例可以对应多个表空间,用于存储记录、索引等数据。
② 段-Segment
段,分为数据段(Leaf node segment)、索引段(Non-leaf node segment)、回滚段(Rollback segment),InnoDB是索引组织表,**数据段就是B+树的叶子节点, 索引段即为B+树的非叶子节点。**段用来管理多个Extent(区)。
③ 区-Extent
区,表空间的单元结构,每个区的大小为1M。
默认情况下, InnoDB存储引擎页大小为16K, 即一个区中一共有64个连续的页。
④ 页-page
页,是InnoDB 存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。
为了保证页的连续性,InnoDB 存储引擎每次从磁盘申请 4-5 个区。
⑤ 行-Row
行,InnoDB 存储引擎数据是按行进行存放的。
在行中,默认有两个隐藏字段:
- Trx_id:每次对某条记录进行改动时,都会把对应的事务id赋值给trx_id隐藏列。
- Roll_pointer:每次对某条引记录进行改动时,都会把旧的版本写入到undo日志中,然后这个隐藏列就相当于一个指针,可以通过它来找到该记录修改前的信息。
6.2 架构
(1)概述
MySQL5.5 版本开始,默认使用InnoDB存储引擎,它擅长事务处理,具有崩溃恢复特性,在日常开发
中使用非常广泛。下面是InnoDB架构图,左侧为内存结构,右侧为磁盘结构。
(2)内存结构
在左侧的内存结构中,主要分为这么四大块儿:
Buffer Pool、Change Buffer、Adaptive Hash Index、Log Buffer。 接下来介绍一下这四个部分。

①Buffer Pool-缓冲池
InnoDB存储引擎基于磁盘文件存储,访问物理硬盘和在内存中进行访问,速度相差很大,为了尽可能弥补这两者之间的I/O效率的差值,就需要把经常使用的数据加载到缓冲池中,避免每次访问都进行磁盘I/O。
在InnoDB的缓冲池中不仅缓存了索引页和数据页,还包含了undo页、插入缓存、自适应哈希索引以及InnoDB的锁信息等等。
缓冲池 Buffer Pool,是主内存中的一个区域,里面可以缓存磁盘上经常操作的真实数据,在执行增删改查操作时,先操作缓冲池中的数据(若缓冲池没有数据,则从磁盘加载并缓存),然后再以一定频率刷新到磁盘,从而减少磁盘IO,加快处理速度。 =》去了解==随机磁盘io
和顺序磁盘io
==的概念
缓冲池以Page页为单位,底层采用链表数据结构管理Page。根据状态,将Page分为三种类型:
free page:空闲page,未被使用。
clean page:被使用page,数据没有被修改过。
dirty page:脏页,被使用page,数据被修改过,也中数据与磁盘的数据产生了不一致。
在专用服务器上,通常将多达80%的物理内存分配给缓冲池 。参数设置:
-- 查看缓存池的大小
show variables like 'innodb_buffer_pool_size';
②Change Buffer-更改缓冲区
Change Buffer,更改缓冲区(针对于非唯一二级索引页),在执行DML语句时,如果这些数据Page没有在Buffer Pool中,不会直接操作磁盘,而会将数据变更先存储在更改缓冲区 Change Buffer中,在未来数据被读取时,再将数据合并恢复到Buffer Pool中,再将合并后的数据刷新到磁盘中。
Change Buffer的意义是什么呢?
先来看一幅图,这个是二级索引的结构图:
与聚集索引不同,二级索引通常是非唯一的,并且以相对随机的顺序插入二级索引。同样,删除和更新可能会影响索引树中不相邻的二级索引页,如果每一次都操作磁盘,会造成大量的磁盘IO。有了ChangeBuffer之后,我们可以在缓冲池中进行合并处理,减少磁盘IO。
③Adaptive Hash Index-自适应hash索引
自适应hash索引,用于优化对Buffer Pool数据的查询。MySQL的innoDB引擎中虽然没有直接支持hash索引,但是给我们提供了一个功能就是这个自适应hash索引。因为前面我们讲到过,hash索引在进行等值匹配时,一般性能是要高于B+树的,因为hash索引一般只需要一次IO即可(在不发生hash冲突的前提下),而B+树,可能需要几次匹配,所以hash索引的效率要高,但是hash索引又不适合做范围查询、模糊匹配等,只适合等值匹配。
InnoDB存储引擎会监控对表上各索引页的查询,如果观察到在特定的条件下hash索引可以提升速度,则建立hash索引,称之为自适应hash索引。
自适应哈希索引,无需人工干预,是系统根据情况自动完成。
参数: adaptive_hash_index
-- 查看InnoDB的自适应hash索引 是否启用
show variables like '%hash_index%';
④Log Buffer-日志缓冲区
Log Buffer:日志缓冲区,用来保存要写入到磁盘中的log日志数据(redo log 、undo log),默认大小为 16MB,日志缓冲区的日志会定期刷新到磁盘中。如果需要更新、插入或删除许多行的事务,增加日志缓冲区的大小可以节省磁盘 I/O。
参数:
innodb_log_buffer_size:缓冲区大小
-- 查询日志缓冲区的大小
show variables like '%log_buffer_size%';
innodb_flush_log_at_trx_commit:日志刷新到磁盘时机,取值主要包含以下三个:
-- 日志刷新到磁盘时机
show variables like '%flush_log%';
- 1: 日志在每次事务提交时写入并刷新到磁盘,默认值。
- 0: 每秒将日志写入并刷新到磁盘一次。
- 2: 日志在每次事务提交后写入,并每秒刷新到磁盘一次。
(3)磁盘结构
接下来,再来看看InnoDB体系结构的右边部分,也就是磁盘结构:
①System Tablespace-系统表空间
系统表空间**是更改缓冲区的存储区域**。如果表是在系统表空间而不是每个表文件或通用表空间中创建的,它也可能包含表和索引数据。(在MySQL5.x版本中还包含InnoDB数据字典、undolog等)
参数:innodb_data_file_path
系统表空间,默认的文件名叫 ibdata1。
show variables like '%data_file_path%';
cd /var/lib/mysql
②File-Per-Table Tablespaces-文件表空间
如果开启了innodb_file_per_table开关 ,则每个表的文件表空间包含单个InnoDB表的数据和索引 ,并存储在文件系统上的单个数据文件中。该文件表空间 =》包含该表的数据、索引、结构
开启后,每一张表都会生成对应的文件表空间,而不是系统表空间
开关参数:innodb_file_per_table ,该参数默认开启。
show variables like '%file_per_table%';
那也就是说,我们每创建一个表,都会产生一个对应的表空间文件,如图:
③General Tablespaces-通用表空间
通用表空间,需要手动通过 CREATE TABLESPACE 语法创建通用表空间,在创建表时,可以指定该表空间。
A. 创建表空间
CREATE TABLESPACE ts_name ADD DATAFILE 'file_name' ENGINE = engine_name;
-- 这里的file_name 指的是这个表空间关联的磁盘磁盘文件
-- 这里的engine_name 指的是对应的存储引擎
create tablespace ts_itheima add datafile 'myitheima.idb' engine = innodb;
B. 创建表时指定表空间
CREATE TABLE xxx ... TABLESPACE ts_name;
create table test_a(
id int primary key auto_increment,
name varchar(10)
) engine = InnoDB tablespace ts_itheima;
④Undo Tablespaces-撤销表空间
撤销表空间,MySQL实例在初始化时会自动创建两个默认的undo表空间(初始大小16M),
用于存储undo log日志。
- undo_001和 undo_002

⑤Temporary Tablespaces-临时表空间
InnoDB 使用会话临时表空间和全局临时表空间。存储用户创建的临时表等数据。
⑥Doublewrite Buffer Files-双写缓冲区
双写缓冲区,innoDB引擎将数据页从Buffer Pool刷新到磁盘前,先将数据页写入双写缓冲区文件中,便于系统异常时恢复数据。
⑦ Redo Log-重做日志
重做日志,是用来实现事务的持久性。该日志文件由两部分组成:
重做日志缓冲(redo logbuffer)以及重做日志文件(redo log),前者是在内存中,后者在磁盘中。
当事务提交之后会把所有修改信息都会存到该日志中, 用于在刷新脏页到磁盘时,发生错误时, 进行数据恢复使用,进而保证事务的持久性。
以循环方式写入重做日志文件,涉及两个文件:
前面我们介绍了InnoDB的内存结构,以及磁盘结构,那么内存中我们所更新的数据,又是如何到磁盘中的呢? 此时,就涉及到一组后台线程,接下来,就来介绍一些InnoDB中涉及到的后台线程。
(4)后台线程
在InnoDB的后台线程中,分为4类,
分别是:Master Thread 、IO Thread、Purge Thread、Page Cleaner Thread。
①Master Thread
核心后台线程,负责调度其他线程,还负责将缓冲池中的数据异步刷新到磁盘中, 保持数据的一致性,还包括脏页的刷新、合并插入缓存、undo页的回收 。
②IO Thread
在InnoDB存储引擎中大量使用了AIO(异步非阻塞IO)来处理IO请求, 这样可以极大地提高数据库的性能,而IOThread主要负责这些IO请求的回调。
我们可以通过以下的这条指令,查看到InnoDB的状态信息,其中就包含IO Thread信息。
show engine innodb status \G;
③Purge Thread
主要用于回收事务已经提交了的undo log(撤销日志),在事务提交之后,undo log可能不用了,就用Purge Thread来回收。
④Page Cleaner Thread
协助 Master Thread 刷新脏页到磁盘的线程,它可以减轻 Master Thread 的工作压力,减少阻塞。
6.3 🚀 事务管理
(1)事务基础
①事务
事务 是一组操作的集合,它是一个不可分割的工作单位。
事务会把所有的操作作为一个整体一起向系统提交或撤销操作请求,即这些操作要么同时成功,要么同时失败。
②特性
- 原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
- 一致性(Consistency):事务完成时,必须使所有的数据都保持一致状态。
- 隔离性(Isolation):数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运行。 = 》对应四种隔离级别:读未提交,读已提交,可重复读(默认),串行化
- 持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。
那实际上,我们研究事务的原理,就是研究MySQL的InnoDB引擎是如何保证事务的这四大特性的。
而对于这四大特性,实际上分为两个部分。
- 其中的原子性、一致性、持久化,实际上是由InnoDB中的两份日志来保证的,
- 一份是redo log日志,一份是undo log日志。
- 而持久性是通过数据库的锁,加上MVCC来保证的。
我们在讲解事务原理的时候,主要就是来研究一下redolog,undolog以及MVCC。
(2)🚀 redo log
①概念
重做日志,记录的是事务提交时数据页的物理修改,是用来实现事务的持久性。
该日志文件由两部分组成:
重做日志缓冲(redo log buffer)以及重做日志文件(redo logfile),前者是在内存中,后者在磁盘中。
当事务提交之后会把所有修改信息都存到该日志文件(redo logfile)中,
- 用于在刷新脏页到磁盘,发生错误时, 进行数据恢复使用,相当于在磁盘中多添加了一个副本。
②未使用redo log时
如果没有redolog,可能会存在什么问题的? 我们一起来分析一下。
我们知道,在InnoDB引擎中的内存结构中,主要的内存区域就是缓冲池,在缓冲池中缓存了很多的数据页。 当我们在一个事务中,执行多个增删改的操作时,InnoDB引擎会先操作缓冲池中的数据,如果缓冲区没有对应的数据,会通过后台线程将磁盘中的数据加载出来,存放在缓冲区中,然后将缓冲池中的数据修改,修改后的数据页我们称为脏页。 而脏页则会在一定的时机,通过后台线程刷新到磁盘中,从而保证缓冲区与磁盘的数据一致。 而缓冲区的脏页数据并不是实时刷新的,而是一段时间之后将缓冲区的数据刷新到磁盘中,假如刷新到磁盘的过程出错了,而提示给用户事务提交成功,而数据却没有持久化下来,这就出现问题了,没有保证事务的持久性。
③使用redo log
那么,如何解决上述的问题呢? 在InnoDB中提供了一份日志 redo log,接下来我们再来分析一下,通过redolog如何解决这个问题。
有了redolog之后,当对缓冲区的数据进行增删改之后,会首先将操作的数据页的变化,记录在redolog buffer中。在事务提交时,会将redo log buffer中的数据刷新到redo log磁盘文件中。过一段时间之后,如果刷新缓冲区的脏页到磁盘时,发生错误,此时就可以借助于redo log进行数据恢复,这样就保证了事务的持久性。 而如果脏页成功刷新到磁盘 或 或者涉及到的数据已经落盘,此时redolog就没有作用了,就可以删除了,所以存在的两个redolog文件是循环写的,不会永久的保存。
那为什么每一次提交事务,要刷新redo log 到磁盘中呢,而不是直接将buffer pool中的脏页刷新到磁盘呢?
因为在业务操作中,我们操作数据可能有多条,并且一般都是随机读写磁盘的,而不是顺序读写磁盘。 而redo log在往磁盘文件中写入数据,由于是日志文件,以追加的方式进行添加,所以都是顺序写的。顺序写的效率,要远大于随机写。 这种先写日志的方式,称之为 WAL(Write-Ahead Logging)。
(3)🚀 undo log
回滚日志,用于**记录数据被修改前的信息** , 作用包含两个 :
**提供回滚(保证事务的原子性) 和MVCC(多版本并发控制) **
undo log和redo log记录物理日志不一样,它是逻辑日志。
可以认为当delete一条记录时,undolog中会记录一条对应的insert记录,
反之亦然,当update一条记录时,它**记录一条对应相反的update记录**。
当执行rollback时,就可以从undo log中的逻辑记录读取到相应的内容并进行回滚。
Undo log销毁:undo log在事务执行时产生,事务提交时,并不会立即删除undo log,因为这些日志可能还用于MVCC。
Undo log存储:undo log采用段的方式进行管理和记录,存放在前面介绍的 rollback segment回滚段中,内部包含1024个undo log segment。
6.4 🚀 MVCC
(1)🚀 基本概念
①当前读
读取的是记录的最新版本,读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加锁。对于我们日常的操作,如:
- select ... lock in share mode(共享锁)
- select ...for update(排他锁)
- update、insert、delete(排他锁)都是一种当前读。
测试
客户端一
begin;
select * from stu;
-- 当前读 ,即使在当前事务内,未提交的情况下,也可以获取到最新数据 (前提是客户端二的事务需要先commit)
select * from stu lock in share mode;
commit;
客户端二,也开启事务,修改stu表中的内容,按照Mysql的隔离级别-可重复读RR,客户端一 直接查询是看不到最新的数据的(客户端二刚修改的),因为需要满足可重复的的隔离级别,但是通过在查询语句后面加上了 lock in share mode 共享锁 (前提是客户端二的事务需要先commit),此时是当前读操作,就可以读取最新的修改后的数据。
-- 客户端二
begin;
update stu set name = 'JSP' where id = 1;
commit;


在测试中我们可以看到,即使是在默认的RR隔离级别(可重复读)下,事务A中依然可以读取到事务B最新提交的内容,因为在查询语句后面加上了 lock in share mode 共享锁,此时是当前读操作。当然,当我们加排他锁的时候,也是**当前读操作**。
②快照读
简单的select(不加锁)就是快照读,快照读,读取的是记录数据的可见版本,有可能是历史数据,不加锁,是非阻塞读。
快照读解决了不可重复读的问题,即使数据修改了,通过快照读两次读取结果一致,但是出现了幻读
三种不同隔离级别下的快照读
Read Committed:每次select,都生成一个快照读。
Repeatable Read:开启事务后第一个select语句才是快照读的地方。
- 后面执行相同的select语句都是从快照中获取数据,可能不是当前的最新数据,这样也就保证了可重复读
Serializable:快照读会退化为当前读。
测试:

在测试中,我们看到即使事务B提交了数据,事务A中也查询不到。 原因就是因为普通的select是快照读,而在当前默认的RR隔离级别下,开启事务后第一个select语句才是快照读的地方,后面执行相同的select语句都是从快照中获取数据,可能不是当前的最新数据,这样也就保证了可重复读。
③MVCC
全称 Multi-Version Concurrency Control,多版本并发控制。
指维护一个数据的多个版本,使得读写操作没有冲突,快照读为MySQL实现MVCC提供了一个非阻塞读功能。
MVCC的具体实现,还需要依赖于数据库记录中的三个隐式字段、undo log日志、readView。
接下来,我们再来介绍一下InnoDB引擎的表中涉及到的隐藏字段 、undolog 以及 readview,从而来介绍一下MVCC的原理。
(2)隐藏字段
①介绍
当我们创建了上面的这张表,我们在查看表结构的时候,就可以显式的看到这三个字段。 实际上除了这三个字段以外,InnoDB还会自动的给我们添加三个隐藏字段及其含义分别是:
而上述的前两个字段是肯定会添加的, 是否添加最后一个字段DB_ROW_ID,得看当前表有没有主键,如果有主键,则不会添加该隐藏字段。
②测试
1). 查看有主键的表 stu
进入服务器中的 /var/lib/mysql/itcast/ , 查看stu的表结构信息, 通过如下指令:
# 使用idb2sdi 命令查看表空间文件信息
ibd2sdi stu.ibd
查看到的表结构信息中,有一栏 columns,在其中我们会看到处理我们建表时指定的字段以外,还有额外的两个字段 分别是:DB_TRX_ID 、 DB_ROLL_PTR ,因为该表有主键,所以没有DB_ROW_ID隐藏字段。


2). 查看没有主键的表 employee
建表语句:
create table employee (id int , name varchar(10));
此时,我们再通过以下指令来查看表结构及其其中的字段信息:
ibd2sdi employee.ibd
查看到的表结构信息中,有一栏 columns,在其中我们会看到处理我们建表时指定的字段以外,还有额外的三个字段 分别是:DB_TRX_ID 、 DB_ROLL_PTR 、DB_ROW_ID,因为employee表是没有指定主键的。

(3)🚀 undo log
①介绍
回滚日志,在insert、update、delete的时候产生的便于数据回滚的日志。
- 当insert的时候,产生的undo log日志只在回滚时需要,在事务提交后,可被立即删除。
- 而update、delete的时候,产生的undo log日志**不仅在回滚时需要,在快照读时也需要,不会立即被删除。**
②🚀版本链
有一张表原始数据为:
DB_TRX_ID : 代表最近修改事务ID,记录插入这条记录或最后一次修改该记录的事务ID,是自增的。
DB_ROLL_PTR : 表示回滚指针,由于这条数据是才插入的,没有被更新过,所以该字段值为null。
然后,有四个并发事务同时在访问这张表。
A. 第一步
当事务2执行第一条修改语句时,会记录undo log日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
B.第二步
当事务3执行第一条修改语句时,也会记录undo log日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
注意,这里事务3执行修改操作后就直接提交了事务,但是此时undo log不会立马删除,因为此时真正在有活动事务在使用undo log,所以即使提交了事务也不会删除undo log日志
C. 第三步
当事务4执行第一条修改语句时,也会记录undo log日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
最终我们发现,不同事务或相同事务对同一条记录进行修改,会导致该记录的undolog生成一条记录版本链表,链表的头部是最新的旧记录,链表尾部是最早的旧记录。
(4)🚀 readview
①概念
ReadView(读视图)
- 快照读 SQL执行时MVCC提取数据的依据,
- 记录并维护系统当前活跃的事务(未提交的)id。
ReadView中包含了四个核心字段:
②版本链数据的访问规则
而在readview中就规定了版本链数据的访问规则:
trx_id代表当前undolog版本链对应事务ID。
不同的隔离级别,生成ReadView的时机不同:
- READ COMMITTED (RC隔离级别):在事务中每一次执行快照读时生成ReadView。
- REPEATABLE READ(RR隔离级别):仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。
(5)🚀 原理分析
①RC隔离级别
RC隔离级别下,在事务中每一次执行快照读时生成ReadView。
我们就来分析事务5中,两次快照读读取数据,是如何获取数据的?
在事务5中,查询了两次id为30的记录,由于隔离级别为Read Committed,所以每一次进行快照读都会生成一个ReadView,那么两次生成的ReadView如下。
那么这两次快照读在获取数据时,就需要根据所生成的ReadView以及ReadView的版本链访问规则,到undo log版本链中匹配数据,最终决定此次快照读返回的数据。
②🚀RC级别=> 快照读的具体过程
A. 先来看第一次快照读 具体的读取过程
第一次快照读时,对应的undo log 的版本链的信息,creator_trx_id等信息:
在进行匹配时,会从undo log的版本链,从上到下进行挨个匹配:
先匹配 这条记录
这条记录对应的trx_id为4,也就是将4带入右侧的匹配规则中。
①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。
再匹配第二条
这条记录对应的trx_id为3,也就是将3带入右侧的匹配规则中。
①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。
再匹配第三条
这条记录对应的trx_id为2,也就是将2带入右侧的匹配规则中。
①不满足 ②满足 终止匹配,此次快照读,返回的数据就是版本链中记录的这条数据。
B. 再来看第二次快照读具体的读取过程
在进行匹配时,会从undo log的版本链,从上到下进行挨个匹配:
先匹配
这条记录,这条记录对应的trx_id为4,也就是将4带入右侧的匹配规则中。
①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。
再匹配第二条
这条记录对应的trx_id为3,也就是将3带入右侧的匹配规则中。
①不满足 ②满足 。终止匹配,此次快照读,返回的数据就是版本链中记录的这条数据。
③RR隔离级别
RR隔离级别下,仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView,进而保证RR隔离级别可重复读。 而RR 是可重复读,在一个事务中,执行两次相同的select语句,查询到的结果是一样的。
那MySQL是如何做到可重复读的呢? 我们简单分析一下就知道了
我们看到,在RR隔离级别下,只是在事务中第一次快照读时生成ReadView,后续都是复用该ReadView,那么既然ReadView都一样, ReadView的版本链匹配规则也一样, 那么最终快照读返回的结果也是一样的,进而保证RR隔离级别可重复读。
所以呢:
MVCC的实现原理就是通过 InnoDB表的隐藏字段、UndoLog 版本链、ReadView来实现的。
而MVCC + 锁,则实现了事务的隔离性。
而一致性则是由redo log 与 undo log保证,保证数据执行前后一致。
6.5 小结
7、MySQL管理
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
7.1 系统数据库
Mysql数据库安装完成后,自带了一下四个数据库,具体作用如下:
7.2 常用工具
(1)mysql-客户端工具
该mysql不是指mysql服务,而是指mysql的客户端工具。
-- 语法 :
mysql [options] [database]
-- 选项 :
-u, --user=name #指定用户名
-p, --password[=name] #指定密码
-h, --host=name #指定服务器IP或域名
-P, --port=port #大写字母P =》指定连接端口
-e, --execute=name #执行SQL语句并退出
-e选项可以在Mysql客户端执行SQL语句,而不用连接到MySQL数据库再执行,对于一些批处理脚本,这种方式尤其方便。
示例:
mysql -h192.168.88.129 -P3306 -uroot -p1234 itcast -e "select * from stu";
mysql -h192.168.88.129 -P3306 -uroot -p1234 itcast -e "show databases;";
(2)mysqladmin-执行管理操作
mysqladmin 是一个执行管理操作的客户端程序。可以用它来检查服务器的配置和当前状态、创建并删除数据库等。
-- 通过帮助文档查看选项:
mysqladmin --help
-- 语法:
mysqladmin [options] command ...
-- 选项:
-u, --user=name #指定用户名
-p, --password[=name] #指定密码
-h, --host=name #指定服务器IP或域名
-P, --port=port #指定连接端口
示例:
mysqladmin -uroot -p1234 create 'test01'; -- 创建指定数据库
mysqladmin -uroot -p1234 drop 'test01'; -- 删除指定数据库
mysqladmin -uroot -p1234 version; -- 查看当前数据库的版本
(3)mysqlbinlog-二进制日志文件
由于服务器生成的二进制日志文件以二进制格式保存,所以如果想要检查这些文本的文本格式,就会使用到mysqlbinlog 日志管理工具。
-- 语法 :
mysqlbinlog [options] log-files1 log-files2 ...
-- 选项 :
-d, --database=name -- 指定数据库名称,只列出指定的数据库相关操作。
-o, --offset=# -- 忽略掉日志中的前n行命令。
-r,--result-file=name -- 将输出的文本格式日志输出到指定文件。
-s, --short-form -- 显示简单格式, 省略掉一些信息。
--start-datatime=date1 --stop-datetime=date2 -- 指定日期间隔内的所有日志。
--start-position=pos1 --stop-position=pos2 -- 指定位置间隔内的所有日志。
示例:
A. 查看 binlog.000006这个二进制文件中的数据信息
cd /var/lib/mysql -- 查看Mysql的目录文件
上述查看到的二进制日志文件数据信息量太多了,不方便查询。 我们可以加上一个参数 -s 来显示简单格式。
mysqlbinlog binlog.000006
mysqlbinlog -s binlog.000006 -- 精简查询后的信息
(4)mysqlshow-对象查找
mysqlshow 客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引。
-- 语法 :
mysqlshow [options] [db_name [table_name [col_name]]]
-- 选项 :
--count -- 显示数据库及表的统计信息(数据库,表 均可以不指定)
-i -- 显示指定数据库或者指定表的状态信息
-- 示例:
#查询itcast库中每个表中的统计信息:字段书,及行数
mysqlshow -uroot -p1234 itcast --count
#查询itcast库中book表的详细情况
mysqlshow -uroot -p1234 itcast stu --count
-i
查看指定数据库或者指定表/字段的状态信息
mysqlshow -uroot -p1234 itcast stu -i
mysqlshow -uroot -p1234 itcast stu id -i
示例:
A. 查询每个数据库的表的数量及表中记录的数量
mysqlshow -uroot -p1234 --count
B. 查看数据库itcast的统计信息
mysqlshow -uroot -p1234 itcast --count
C. 查看数据库itcast中的stu表的信息
mysqlshow -uroot -p1234 itcast stu --count
D. 查看数据库itcast中的course表的id字段的信息
mysqlshow -uroot -p1234 itcast stu id --count
E.-i
查看指定数据库或者指定表/字段的状态信息
mysqlshow -uroot -p1234 itcast stu -i
mysqlshow -uroot -p1234 itcast stu id -i
(5)mysqldump-数据备份和迁移
mysqldump 客户端工具用来备份数据库或在不同数据库之间进行数据迁移。备份内容包含创建表,及插入表的SQL语句。
-- 语法 :
mysqldump --help -- 查看更多的指令选项
mysqldump [options] db_name [tables]
mysqldump [options] --database/-B db1 [db2 db3...]
mysqldump [options] --all-databases/-A
-- 连接选项 :
-u, --user=name -- 指定用户名
-p, --password[=name] -- 指定密码
-h, --host=name -- 指定服务器ip或域名
-P, --port=# -- 指定连接端口
-- 输出选项:
--add-drop-database -- 在每个数据库创建语句前加上 drop database 语句
--add-drop-table -- 在每个表创建语句前加上 drop table 语句 , 默认开启 ;
-- 不开启 (--skip-add-drop-table)
-R, --routines -- 转存存储例程(函数和程序)。
-n, --no-create-db -- 不包含数据库的创建语句
-t, --no-create-info -- 不包含数据表的创建语句
-d --no-data -- 不包含数据
-T, --tab=name -- 自动生成两个文件:一个.sql文件,创建表结构的语句;一个.txt文件,数据文件
示例:
A. 备份itcast数据库
mysqldump -uroot -p1234 itcast > itcast.sql
可以直接打开itcast.sql,来查看备份出来的数据到底什么样。


备份出来的数据包含:
- 删除表的语句
- 创建表的语句
- 数据插入语句
如果我们在数据备份时,不需要创建表,或者不需要备份数据,只需要备份表结构,都可以通过对应的参数来实现。
B. 备份db01数据库中的表数据,不备份表结构(-t)
mysqldump -uroot -p1234 -t itcast > itcast2.sql
打开 itcast2.sql ,来查看备份的数据,只有insert语句,没有备份表结构。
C. 将itcast数据库的表stu的表结构与数据分开备份(-T)
mysqldump -uroot -p1234 -T /root itcast stu
执行上述指令,会出错,数据不能完成备份,原因是因为我们所指定的数据存放目录/root,MySQL认为是不安全的,需要存储在MySQL信任的目录下。那么,哪个目录才是MySQL信任的目录呢,可以查看一下系统变量 secure_file_priv 。执行结果如下:
show variables like '%secure_file_priv%';
mysqldump -uroot -p1234 -T /var/lib/mysql-files/ itcast stu

上述的两个文件 stu.sql 中记录的就是表结构文件,而 stu.txt 就是表数据文件,但是需要注意表数据文件,并不是记录一条条的insert语句,而是按照一定的格式记录表结构中的数据。如下:
(6)mysqlimport/source-导入数据
①mysqlimport
mysqlimport 是客户端数据导入工具,用来导入mysqldump 加 -T 参数后导出的文本文件。
-- 语法 :
mysqlimport [options] db_name textfile1 [textfile2...]
-- 示例 :
mysqlimport -uroot -p1234 itcast /tmp/itcast.txt
②source
如果需要导入sql文件,可以使用mysql中的source 指令 :
-- 语法 :
source /root/xxxxx.sql -- 执行sql脚本-insert语句,在mysql命令行中执行
7.3 小结

----------------------------
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
三、运维篇
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
1、🌟 日志
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
1.1 错误日志
错误日志是 MySQL 中最重要的日志之一,它记录了当 mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,建议首先查看此日志。
该日志是默认开启的,默认存放目录 /var/log/,默认的日志文件名为 mysqld.log 。查看日志位置:
-- 查看日志文件所在位置
show variables like '%log_error%';
tail -50 /var/log/mysqld.log #查看错误日志文件最后50行的信息
tail -f /var/log/mysqld.log #实时查看日志信息
1.2 🌟 二进制日志
(1)介绍
二进制日志(BINLOG)记录了所有的 **DDL(数据定义语言)**语句和 DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。
作用:
- ① 灾难时的**数据恢复**;
- ② MySQL的**主从复制**,主从复制的底层原理就是基于binlog的。
在MySQL8版本中,默认二进制日志是开启着的,涉及到的参数如下:
show variables like '%log_bin%';
参数说明:
- loh_bin = on ,表示二进制日志是开启的。
- log_bin_basename:当前数据库服务器的binlog日志的基础名称(前缀),具体的binlog文件名需要再该basename的基础上加上编号(编号从000001开始)。
- log_bin_index:binlog的索引文件,里面记录了当前服务器关联的binlog文件有哪些。

(2)格式
MySQL服务器中提供了多种格式来记录二进制日志,具体格式及特点如下:
注意
- 查询是不会记录在二进制文件中的,只会记录了所有的 **DDL(数据定义语言)**语句和 DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。
- STATEMENT的日志格式,通过mysqlbinlog binlog.00003时不需要添加-v选项,因为该日志格式保存的就是sql语句。
- 对于ROW的日志格式,需要通过mysqlbinlog -v binlog.00003指令,将行事件(数据变更)重构为SQL语句
show variables like '%binlog_format%'; -- 查看当前Mysql的记录日志的格式
如果我们需要配置二进制日志的格式,只需要在 /etc/my.cnf 中配置 binlog_format 参数即可。
vim /etc/my.cnf
#在该文件的最后添加
binlog_format = STATEMENT
# 重新启动MySQL服务
systemctl restart mysqld
(3)查看
由于日志是以二进制方式存储的,不能直接读取,需要通过二进制日志查询工具 mysqlbinlog 来查看,具体语法:
mysqlbinlog [ 参数选项 ] logfilename
-- 参数选项:
-d -- 指定数据库名称,只列出指定的数据库相关操作。
-o -- 忽略掉日志中的前n行命令。
-v -- 将行事件(数据变更)重构为SQL语句
-vv -- 将行事件(数据变更)重构为SQL语句,并输出注释信息,注意这里是两个v
(4)删除
对于比较繁忙的业务系统,每天生成的binlog数据巨大,如果长时间不清除,将会占用大量磁盘空间。可以通过以下几种方式清理日志:
①日志过期时间
也可以在mysql的配置文件中配置二进制日志的过期时间,设置了之后,二进制日志过期会自动删除。
-- 查看二进制日志文件的过期时间
show variables like '%binlog_expire_logs_seconds%'; -- 默认为30天

②删除指定编码之前的所有日志
purge master logs to 'binlog.000002';
③删除全部binlog日志
删除全部binlog日志,删除之后,日志编号,将从 binlog.000001重新开始
reset master;
④删除指定日期之前的日志
purge master logs before '2025-04-20 21:42:00';
1.3 查询日志
查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。
默认情况下,查询日志是未开启的。
show variables like '%general%'; -- 查询日志的开关状态和查询日志所在文件目录

如果需要开启查询日志,可以修改MySQL的配置文件 /etc/my.cnf 文件,添加如下内容:
#该选项用来开启查询日志 , 可选值 : 0 或者 1 ; 0 代表关闭, 1 代表开启
general_log=1
#设置日志的文件名,如果没有指定, 默认的文件名为 host_name.log
general_log_file=mysql_query.log
-- 配置完成后,重启mysql服务
systemctl restart mysqld
开启了查询日志之后,在MySQL的数据存放目录,也就是 /var/lib/mysql/ 目录下就会出现mysql_query.log 文件。之后所有的客户端的增删改查操作都会记录在该日志文件之中,长时间运行后,该日志文件将会非常大。如果不需要用到这个文件可以关闭查询日志
。
1.4 🌟 慢查询日志
慢查询日志记录了所有执行时间超过参数 long_query_time 设置值并且扫描记录数不小于min_examined_row_limit 的所有的SQL语句的日志,默认未开启。long_query_time 默认为10 秒,最小为 0, 精度可以到微秒。
默认文件名为:localhost-slow.log ,所在文件目录:/var/lib/mysql
如果需要开启慢查询日志,需要在MySQL的配置文件 /etc/my.cnf 中配置如下参数:
#慢查询日志
slow_query_log=1 # 1表示开启慢查询日志
#执行时间参数
long_query_time=2 # 设置慢查询时间标准线为 2s
测试:
select * from tb_sku limit 0,10; -- 用时0.01s
select * from tb_sku limit 2000000,10; -- 执行时间较长 => 4.79s
-- 使用 EXPLAIN ANALYZE(MySQL 8.0+)
-- 这会返回 实际执行计划+时间统计,比慢查询日志更精确。
EXPLAIN ANALYZE SELECT * FROM `tb_sku` limit 2000000,10;
select count(*) from tb_sku;
默认情况下,不会记录管理语句,也不会记录不使用索引进行查找的查询。可以使用log_slow_admin_statements和 更改此行为 log_queries_not_using_indexes,如下所述。
#记录执行较慢的管理语句
log_slow_admin_statements = 1
#记录执行较慢的未使用索引的语句
log_queries_not_using_indexes = 1
上述所有的参数配置完成之后,都需要重新启动MySQL服务器才可以生效。
bash-- 配置完成后,重启mysql服务 systemctl restart mysqld
2、主从复制
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
2.1 概述
主从复制是指将主数据库的 DDL 和 DML 操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步。
MySQL支持一台主库同时向多台从库进行复制, 从库同时也可以作为其他从服务器的主库,实现链状复制。
MySQL 复制的优点主要包含以下三个方面:
- 主库出现问题,可以快速切换到从库提供服务。
- 实现**读写分离,降低主库的访问压力**。
- 可以在**从库中执行备份,以避免备份期间影响主库服务**。
- (因为备份需要添加全局锁,会影响业务操作)
2.2 原理
MySQL主从复制的核心就是 二进制日志,具体的过程如下:
从上图来看,复制分成三步:
Master 主库在事务提交时,会把数据变更记录在二进制日志文件 Binlog 中。
从库读取主库的二进制日志文件 Binlog ,写入到从库的中继日志 Relay Log 。 =》 IOthread
slave重做中继日志中的事件,将改变反映它自己的数据。 =》 SQLthread
MySQL复制详细过程分成三步:
- master将改变记录到二进制日志(binarylog)
- slave将master的binarylog拷贝到它的中继日志(relaylog)
- 通过开启I/O thread 线程从master主库中读取binlog,在写入slave从库的中继日志relaylog。
- 在从库中在通过SQL thread线程解析日志,执行和主库一样的sql操作
- slave重做中继日志中的事件,将改变应用到自己的数据库中
2.3 搭建
(1)准备
准备好两台服务器之后,在上述的两台服务器中分别安装好MySQL,并完成基础的初始化准备(安装、密码配置等操作)工作。 其中:
192.168.200.200 作为主服务器master = 》 192.168.88.130 (自己的服务器ip)
192.168.200.201 作为从服务器slave =》 192.168.88.131
# 开放指定端口
firewall-cmd --zone=public --add-port=3306/tcp --permanent
# 立即生效
firewall-cmd --reload
#查看开放的端口
firewall-cmd --zone=public --list-ports
(2)主库配置
①修改配置文件 /etc/my.cnf
前置条件
#查找my.conf文件
find / -name "my.cnf"

log_bin = binlog # 启用二进制日志(Binary Log)并指定日志文件的基础名称
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – (2的32次方-1), 默认为1
server-id=1 #[必须]服务器唯一ID
#是否只读,1 代表只读, 0 代表读写
read-only=0 #主库设置为0,表示可以读写
#设置read-only = 1的 只读 只针对普通用户,若想设置超级管理员的权限因为只读:
#super-read-only=1
#忽略的数据, 指不需要同步的数据库
#binlog-ignore-db=mysql
#指定同步的数据库
#binlog-do-db=db01
②重启MySQL服务器
systemctl restart mysqld
③登录mysql,创建远程连接的账号,并授予主从复制权限
登录Mysql客户端
mysql -uroot -proot
#创建itcast用户,并设置密码,该用户可在任意主机连接该MySQL服务
CREATE USER 'itcast'@'%' IDENTIFIED WITH mysql_native_password BY 'Root@123456';
-- 这里的%表示itcast用户可以在任意主机上进行访问该数据库
-- Root@123456 表示该用户的密码
#为 'itcast'@'%' 用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'itcast'@'%';
④通过指令,查看二进制日志坐标
show master status ;
-- 8.40版本的使用新的指令SHOW BINARY LOG STATUS.
字段含义说明:
file : 从哪个日志文件开始推送日志文件,注意这里的文件名前缀,后续从库和主库进行关联时会使用到
- 文件名前缀,通过log_bin = binlog 设置:启用二进制日志(Binary Log)并指定日志文件的基础名称
position : 从哪个位置开始推送日志
binlog_ignore_db : 指定不需要同步的数据库
注意:
由于主从复制是通过二进制日志文件进行同步的,但是只能选择从某个日志文件的某个位置开始进行推送并同步。
如果此时主库在
该推送日志文件
已经有了数据,直接通过主从复制是不能同步这些日志文件
之前的数据,可以采用根据主库的结构和数据,生成sql语句,先在从库中执行该生成的sql后,保证主从的初始数据一致,再来进行主从复制的配置。
如果遇到返回的是空集合:

SHOW VARIABLES LIKE 'log_bin'; -- 如果返回 OFF,说明二进制日志未启用。
修改 MySQL 配置文件(my.cnf
或 my.ini
):
[mysqld]
log_bin = binlog # 启用二进制日志(Binary Log)并指定日志文件的基础名称
server_id = 1 # 主从复制必须设置 server_id(唯一值)
重启 MySQL:
sudo systemctl restart mysqld # 或 mysql(取决于系统)
(3)从库配置
①修改配置文件 /etc/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 到 2^32-1,和主库不一样即可
server-id=2 #和主库不一样即可
#是否只读,1 代表只读, 0 代表读写
read-only=1 # 只针对普通管理员有效
#设置read-only = 1的 只读 只针对普通用户,若想设置超级管理员的权限因为只读:
#super-read-only=1
②重新启动MySQL服务
systemctl restart mysqld
③登录mysql,设置主库配置
1)通过指令,查看二进制日志坐标
show master status ;
-- 8.40版本的使用新的指令SHOW BINARY LOG STATUS.
字段含义说明:
- file : 从哪个日志文件开始推送日志文件
- position : 从哪个位置开始推送日志
- binlog_ignore_db : 指定不需要同步的数据库
2)从库关联主库
-- 登录Mysql
mysql -uroot -proot
CHANGE REPLICATION SOURCE TO SOURCE_HOST='192.168.88.130',SOURCE_USER='itcast',SOURCE_PASSWORD='Root@123456', SOURCE_LOG_FILE='binlog.000001',SOURCE_LOG_POS=154;
上述是8.0.23中的语法。如果mysql是 8.0.23 之前的版本,执行如下SQL:
CHANGE MASTER TO MASTER_HOST='192.168.88.130', MASTER_USER='itcast',
MASTER_PASSWORD='Root@123456', MASTER_LOG_FILE='binlog.000001',
MASTER_LOG_POS=154;
④开启同步操作
start replica ; #8.0.22之后
start slave ; #8.0.22之前
⑤查看主从同步状态
show replica status ; #8.0.22之后
show slave status\G; #8.0.22之前
当IO_Running和SQL_Running都显示为yes时,说明配置成功
(4)测试
①主库
在主库 192.168.88.130 上创建数据库、表,并插入数据
create database db01;
use db01;
create table tb_user(
id int(11) primary key not null auto_increment,
name varchar(50) not null,
sex varchar(1)
)engine=innodb default charset=utf8mb4;
insert into tb_user(id,name,sex)
values
(null,'Tom', '1'),
(null,'Trigger','0'),
(null,'Dawn','1');
②从库
在从库 192.168.88.131 中查询数据,验证主从是否同步
2.4 小结
3、🚀 分库分表
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
3.1 介绍
(1)问题分析
随着互联网及移动互联网的发展,应用系统的数据量也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈:
IO瓶颈:热点数据太多,数据库缓存不足(数据库缓存需要占用内存),产生大量磁盘IO,效率较低。 请求数据太多,带宽不够,网络IO瓶颈。
- 结合InnoDB的存储结构来阐述:在InnoDB存储引擎当中,有很大一部分的存储内存都分配给了数据库的缓存区,如果热点数据过多,会导致服务器的内存不足,进而导致数据库分配到的缓冲区也不足=》缓冲区内缓存的数据的能力降低,进而会导致产生大量的磁盘IO。
- [跳转到 =》Buffer Pool缓存池](#Buffer Pool缓存池)
CPU瓶颈:排序、分组、连接查询、聚合统计等SQL会耗费大量的CPU资源,请求数太多,CPU出现瓶颈。
为了解决上述问题,我们需要对数据库进行分库分表处理。
分库分表的中心思想都是将数据分散存储,使得单一数据库/表的数据量变小来缓解单一数据库的性能问题,从而达到提升数据库性能的目的。
(2)拆分策略
分库分表的形式,主要是两种:垂直拆分和水平拆分。
- 按照拆分的力度不同可分为:分库和分表
- 按照拆分的维度不同可分为:垂直拆分和水平拆分
而**拆分的粒度,一般又分为分库和分表**,所以组成的拆分策略最终如下:
(3)垂直拆分
①垂直分库
垂直分库:以表为依据,根据业务将不同表拆分到不同库中。
特点:
- 每个库的表结构都不一样。
- 每个库的数据也不一样。
- 所有库的并集是全量数据。
②垂直分表

垂直分表:以字段为依据,根据字段属性将不同字段拆分到不同表中。
拆分依据 =》可以按照冷热数据分离的思想去拆分
特点:
- 每个表的结构都不一样。
- 每个表的数据也不一样,一般通过一列(主键/外键)关联。
- 所有表的并集是全量数据。
(4)水平拆分
①水平分库

水平分库:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。= 》 类似于 分页的思想
特点:
每个库的表结构都一样。
每个库的数据都不一样。
所有库的并集是全量数据。
②水平分表

水平分表:以字段为依据,按照一定策略,将一个表的数据拆分到多个表中。
特点:
- 每个表的表结构都一样。
- 每个表的数据都不一样。
- 所有表的并集是全量数据。
在业务系统中,为了缓解磁盘IO及CPU的性能瓶颈,到底是垂直拆分,还是水平拆分;具体是分库,还是分表,都需要根据具体的业务需求具体分析。
(5)实现技术
- shardingJDBC:基于AOP原理,在应用程序中对本地执行的SQL进行拦截,解析、改写、路由处理。需要自行编码配置实现,只支持java语言,性能较高。
- MyCat:数据库分库分表中间件,不用调整代码即可实现分库分表,支持多种语言,性能不及前者。
- 不需要对应用程序做任何的配置和导入任何的依赖
本次课程,我们选择了是MyCat数据库中间件,通过MyCat中间件来完成分库分表操作。
3.2 MyCat概述
(1)介绍
Mycat是开源的、活跃的、基于Java语言编写的MySQL数据库中间件。可以像使用mysql一样来使用mycat,对于开发人员来说根本感觉不到mycat的存在。= 》 MyCat 进行了 "伪装协议"
开发人员只需要连接MyCat即可,而具体底层用到几台数据库,每一台数据库服务器里面存储了什么数据,都无需关心。 具体的分库分表的策略,只需要在MyCat中配置即可。

优势:
- 性能可靠稳定
- 强大的技术团队
- 体系完善
- 社区活跃
(2)下载
下载地址:http://mycat.org.cn/
本次课,使用1.6.7.3-release版本
(3)安装
Mycat是采用java语言开发的开源的数据库中间件,支持Windows和Linux运行环境,下面介绍MyCat的Linux中的环境搭建。我们需要在准备好的服务器中安装如下软件。
- MySQL
- JDK
- Mycat
我的服务器分配方案:
- 192.168.88.130 =》JDK、MyCat
- 192.168.88.130 =》 Mysql 分片服务器一 , 同时也是之前学习的主库
- 192.168.88.131 =》 Mysql 分片服务器二,同时也是之前学习的从库
- 192.168.88.129 =》 Mysql 分片服务器三
具体的安装步骤: 参考资料中提供的 《MyCat安装文档》即可,里面有详细的安装及配置步骤。
①JDK安装并配置环境变量
JDK具体安装步骤如下:
1. 上传安装包
使用FinalShell自带的上传工具将jdk的二进制发布包上传到Linux
由于上述在进行文件上传时,选择的上传目录为根目录 /,上传完毕后,我们执行指令 cd / 切换到根目录下,查看上传的安装包。
2. 解压安装包
执行如下指令,将上传上来的压缩包进行解压,并通过-C参数指定解压文件存放目录为 /usr/local。
tar -zxvf jdk-8u171-linux-x64.tar.gz -C /usr/local
3. 配置环境变量
使用vim命令修改/etc/profile文件,在文件末尾加入如下配置
JAVA_HOME=/usr/local/jdk1.8.0_171
PATH=$JAVA_HOME/bin:$PATH
具体操作指令如下:
1). 编辑/etc/profile文件,进入命令模式
vim /etc/profile
2). 在命令模式中,输入指令 G , 切换到文件最后
G
3). 在命令模式中输入 i/a/o 进入插入模式,然后切换到文件最后一行
i
4). 将上述的配置拷贝到文件中
export JAVA_HOME=/usr/local/jdk1.8.0_171
export PATH=$JAVA_HOME/bin:$PATH
5). 从插入模式,切换到指令模式
ESC
6). 按:进入底行模式,然后输入wq,回车保存
:wq
4. 重新加载profile文件
为了使更改的配置立即生效,需要重新加载profile文件,执行命令:
source /etc/profile
5. 检查安装是否成功
java -version
②MyCat安装
1. 上传Mycat压缩包到服务器
Mycat-server-1.6.7.3-release-20210913163959-linux.tar.gz
2. 解压MyCat的压缩包
tar -zxvf Mycat-server-1.6.7.3-release-20210913163959-linux.tar.gz -C /usr/local/

(4)目录结构
- bin : 存放可执行文件,用于启动停止mycat
- conf:存放mycat的配置文件
- lib:存放mycat的项目依赖包(jar)
- logs:存放mycat的日志文件
cd lib/ # 查看mycat的项目依赖包
rm -rf mysql-connector-java-5.1.35.jar
chmod 777 mysql-connector-java-8.0.22.jar
(5)概念介绍
在MyCat的整体结构中,分为两个部分:上面的逻辑结构、下面的物理结构。
在MyCat的逻辑结构主要负责逻辑库、逻辑表、分片规则、分片节点等逻辑结构的处理,而具体的数据存储还是在物理结构,也就是数据库服务器中存储的。
在后面讲解MyCat入门以及MyCat分片时,还会讲到上面所提到的概念。
3.3 MyCat入门
(1)需求
由于 tb_order 表中数据量很大,磁盘IO及容量都到达了瓶颈,现在需要对 tb_order 表进行数据分片,分为三个数据节点,每一个节点主机位于不同的服务器上, 具体的结构,参考下图:
对应水平拆分中的:水平分表
特点:
- 每个表的表结构都一样。
- 每个表的数据都不一样。
- 所有表的并集是全量数据。
(2)环境配置

准备3台服务器:
192.168.200.210:MyCat中间件服务器,同时也是第一个分片服务器。
192.168.200.213:第二个分片服务器。
192.168.200.214:第三个分片服务器。并且在上述3台数据库中创建数据库 db01 。
我的服务器分配方案:
- 192.168.88.130 =》JDK、MyCat
- 192.168.88.130 =》 Mysql 分片服务器一 , 同时也是之前学习的主库
- 192.168.88.131 =》 Mysql 分片服务器二,同时也是之前学习的从库
- 192.168.88.129 =》 Mysql 分片服务器三
并且在上述3台数据库中创建数据库 db01 。
(3)配置
cd /usr/local/mycat/conf
①schema.xml
在schema.xml中配置逻辑库、分片规则、逻辑表、数据节点、节点主机等相关信息。具体的配置如下:
<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
<schema name="DB01" checkSQLschema="true" sqlMaxLimit="100">
<table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long"
/>
</schema>
<dataNode name="dn1" dataHost="dhost1" database="db01" />
<dataNode name="dn2" dataHost="dhost2" database="db01" />
<dataNode name="dn3" dataHost="dhost3" database="db01" />
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.130:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="root" />
</dataHost>
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.131:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="root" />
</dataHost>
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.129:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" />
</dataHost>
</mycat:schema>
②server.xml
需要在server.xml中配置用户名、密码,以及用户的访问权限信息,具体的配置如下:
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">DB01</property>
<!-- 表级 DML 权限设置 -->
<!--
<privileges check="true">
<schema name="DB01" dml="0110" >
<table name="TB_ORDER" dml="1110"></table>
</schema>
</privileges>
-->
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">DB01</property>
<property name="readOnly">true</property>
</user>
上述的配置表示,定义了两个用户 root 和 user ,这两个用户都可以访问 DB01 这个逻辑库,访问密码都是123456,但是root用户访问DB01逻辑库,既可以读,又可以写,但是 user用户访问DB01逻辑库是只读的。
(4)测试
①启动
配置完毕后,先启动涉及到的3台分片服务器,然后启动MyCat服务器。切换到Mycat的安装目录,执行如下指令,启动Mycat:
#启动
bin/mycat start
#停止
bin/mycat stop
Mycat启动之后,占用端口号 8066。
启动完毕之后,可以查看logs目录下的启动日志,查看Mycat是否启动完成。
tail -f logs/wrapper.log
②测试
①连接MyCat
通过如下指令,就可以连接并登陆MyCat。
mysql -h 192.168.200.210 -P 8066 -uroot -p123456
mysql -h 192.168.88.130 -P 8066 -uroot -p123456
我们看到我们是通过MySQL的指令来连接的MyCat,因为MyCat在底层实际上是模拟了MySQL的协议。
②数据测试
然后就可以在MyCat中来创建表,并往表结构中插入数据,查看数据在MySQL中的分布情况。
在Mycat中创建了tb_order表,关联的三个数据节点会自动同步创建
CREATE TABLE TB_ORDER (
id BIGINT(20) NOT NULL,
title VARCHAR(100) NOT NULL ,
PRIMARY KEY (id)
) ENGINE=INNODB DEFAULT CHARSET=utf8 ;
INSERT INTO TB_ORDER(id,title) VALUES(1,'goods1');
INSERT INTO TB_ORDER(id,title) VALUES(2,'goods2');
INSERT INTO TB_ORDER(id,title) VALUES(3,'goods3');
INSERT INTO TB_ORDER(id,title) VALUES(1,'goods1');
INSERT INTO TB_ORDER(id,title) VALUES(2,'goods2');
INSERT INTO TB_ORDER(id,title) VALUES(3,'goods3');
INSERT INTO TB_ORDER(id,title) VALUES(5000000,'goods5000000');
INSERT INTO TB_ORDER(id,title) VALUES(10000000,'goods10000000');
INSERT INTO TB_ORDER(id,title) VALUES(10000001,'goods10000001');
INSERT INTO TB_ORDER(id,title) VALUES(15000000,'goods15000000');
INSERT INTO TB_ORDER(id,title) VALUES(15000001,'goods15000001');
经过测试,我们发现,在往 TB_ORDER 表中插入数据时:
- 如果id的值在1-500w之间,数据将会存储在第一个分片数据库中。
- 如果id的值在500w-1000w之间,数据将会存储在第二个分片数据库中。
- 如果id的值在1000w-1500w之间,数据将会存储在第三个分片数据库中。
- 如果id的值超出1500w,在插入数据时,将会报错。
为什么会出现这种现象,数据到底落在哪一个分片服务器到底是如何决定的呢? 这是由逻辑表配置时的一个参数 rule 决定的,而这个参数配置的就是分片规则,关于分片规则的配置,在后面的课程中会详细讲解。
3.4 MyCat配置
(1)schema.xml
schema.xml 作为MyCat中最重要的配置文件之一 , 涵盖了MyCat的逻辑库 、 逻辑表 、 分片规则、分片节点及数据源的配置。
主要包含以下三组标签:
- schema标签
- datanode标签
- datahost标签
①schema标签
1). schema 定义逻辑库
schema 标签用于定义 MyCat实例中的逻辑库 , 一个MyCat实例中, 可以有多个逻辑库 , 可以通过 schema 标签来划分不同的逻辑库。MyCat中的逻辑库的概念,等同于MySQL中的database概念, 需要操作某个逻辑库下的表时, 也需要切换逻辑库(use xxx)。
核心属性:
name:指定自定义的逻辑库库名 ,注意大小写问题
checkSQLschema:在SQL语句操作时指定了数据库名称,执行时是否自动去除;true:自动去除,false:不自动去除
- 若checkSQLschema = true,表示可以直接通过select * from DB01.TB_ORDER进行查询,不用先使用use xx,进行切换,再进行查询
sqlMaxLimit:如果未指定limit进行查询,列表查询模式最多查询多少条记录
2). schema 中的table定义逻辑表
table 标签定义了MyCat中逻辑库schema下的逻辑表 , 所有需要拆分的表都需要在table标签中定义 。
核心属性:
- name:定义逻辑表表名,在该逻辑库下唯一
- dataNode:定义逻辑表所属的dataNode,该属性需要与dataNode标签中name对应;多个dataNode逗号分隔
- rule:分片规则的名字,分片规则名字是在rule.xml中定义的
- primaryKey:逻辑表对应真实表的主键
- type:逻辑表的类型,目前逻辑表只有全局表和普通表,如果未配置,就是普通表;全局表,配置为 global
②datanode标签
核心属性:
- name:定义数据节点名称
- dataHost:数据库实例主机名称,引用自 dataHost 标签中name属性
- database:定义分片所属数据库
③datahost标签
该标签在MyCat逻辑库中作为底层标签存在, 直接定义了具体的数据库实例、读写分离、心跳语句。
核心属性:
name:唯一标识,供上层标签使用
maxCon/minCon:最大连接数/最小连接数
balance:负载均衡策略,取值 0,1,2,3
writeType:写操作分发方式
- 0:写操作转发到第一个writeHost,第一个挂了,切换到第二个;
- 1:写操作随机分发到配置的writeHost
dbDriver:数据库驱动,支持 native、jdbc
(2)rule.xml
rule.xml中定义所有拆分表的规则, 在使用过程中可以灵活的使用分片算法, 或者对同一个分片算法使用不同的参数, 它让分片过程可配置化。主要包含两类标签:tableRule、Function。
(3)server.xml
server.xml配置文件包含了MyCat的系统配置信息,主要有两个重要的标签:system、user。
① system标签

主要配置MyCat中的系统配置信息,对应的系统配置项及其含义,如下:
② user标签
配置MyCat中的用户、访问密码,以及用户针对于逻辑库、逻辑表的权限信息,具体的权限描述方式及配置说明如下:
在测试权限操作时,我们只需要将 privileges 标签的注释放开。
- 在 privileges 下的schema标签中配置的dml属性配置的是逻辑库的权限。
- 在privileges的schema下的table标签的dml属性中配置逻辑表的权限。
- dml => 对应4位二进制数,分别对应IUSD(增、改、查、删)的权限。
3.5 🚀 MyCat分片-分库/分表
这里的分片指的就是分库分表
(1)垂直拆分
①场景
在业务系统中, 涉及以下表结构 ,但是由于用户与订单每天都会产生大量的数据, 单台服务器的数据存储及处理能力是有限的, 可以对数据库表进行拆分, 原有的数据库表如下。

现在考虑将其进行垂直分库操作,将商品相关的表拆分到一个数据库服务器,订单表拆分的一个数据库服务器,用户及省市区表拆分到一个服务器。最终结构如下:

②准备
准备三台服务器,IP地址如图所示:

并且在192.168.200.210,192.168.200.213, 192.168.200.214上面手动先创建数据库shopping。

③配置
1). schema.xml
cd /usr/local/mycat/conf
<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
<schema name="SHOPPING" checkSQLschema="true" sqlMaxLimit="100">
<table name="tb_goods_base" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_brand" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_cat" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_desc" dataNode="dn1" primaryKey="goods_id" />
<table name="tb_goods_item" dataNode="dn1" primaryKey="id" />
<table name="tb_order_item" dataNode="dn2" primaryKey="id" />
<table name="tb_order_master" dataNode="dn2" primaryKey="order_id" />
<table name="tb_order_pay_log" dataNode="dn2" primaryKey="out_trade_no" />
<table name="tb_user" dataNode="dn3" primaryKey="id" />
<table name="tb_user_address" dataNode="dn3" primaryKey="id" />
<table name="tb_areas_provinces" dataNode="dn3" primaryKey="id"/>
<table name="tb_areas_city" dataNode="dn3" primaryKey="id"/>
<table name="tb_areas_region" dataNode="dn3" primaryKey="id"/>
</schema>
<dataNode name="dn1" dataHost="dhost1" database="shopping" />
<dataNode name="dn2" dataHost="dhost2" database="shopping" />
<dataNode name="dn3" dataHost="dhost3" database="shopping" />
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.130:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="root" />
</dataHost>
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.131:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="root" />
</dataHost>
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.129:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" />
</dataHost>
</mycat:schema>
2). server.xml
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING</property>
<!-- 表级 DML 权限设置 -->
<!--
<privileges check="true">
<schema name="DB01" dml="0110" >
<table name="TB_ORDER" dml="1110"></table>
</schema>
</privileges>
-->
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">SHOPPING</property>
<property name="readOnly">true</property>
</user>
配置完毕后,重新启动MyCat。
#启动
bin/mycat start
#停止
bin/mycat stop
④测试
1). 上传测试SQL脚本到服务器的/root目录
登录Mycat
mysql -h 192.168.200.210 -P 8066 -uroot -p123456
具体的脚本可在运维篇的SQL脚本的垂直拆分
中找到
source /root/shopping-table.sql;
source /root/shopping-insert.sql;
2). 执行指令导入测试数据
重新启动MyCat后,在mycat的命令行中,通过source指令导入表结构,以及对应的数据,查看数据分布情况。
source /root/shopping-table.sql
source /root/shopping-insert.sql
将表结构及对应的测试数据导入之后,可以检查一下各个数据库服务器中的表结构分布情况。 检查是否和我们准备工作中规划的服务器一致。
3). 查询用户的收件人及收件人地址信息(包含省、市、区)。
在MyCat的命令行中,当我们执行以下多表联查的SQL语句时,可以正常查询出数据。
select ua.user_id, ua.contact, p.province, c.city, r.area , ua.address
from
tb_user_address ua ,tb_areas_city c , tb_areas_provinces p ,tb_areas_region r
where ua.province_id = p.provinceid and ua.city_id = c.cityid and ua.town_id =
r.areaid ;

4). 查询每一笔订单及订单的收件地址信息(包含省、市、区)。
实现该需求对应的SQL语句如下:
SELECT order_id , payment ,receiver, province , city , area
FROM tb_order_master o
, tb_areas_provinces p , tb_areas_city c , tb_areas_region r
WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND
o.receiver_region = r.areaid;
但是现在存在一个问题,订单相关的表结构是在 192.168.200.213 数据库服务器中,而省市区的数据库表是在 192.168.200.214 数据库服务器中。那么在MyCat中执行是否可以成功呢?
经过测试,我们看到,SQL语句执行报错。原因就是因为MyCat在执行该SQL语句时,需要往具体的数据库服务器中路由,而当前没有一个数据库服务器完全包含了订单以及省市区的表结构,造成SQL语句失败,报错。
对于上述的这种现象,我们如何来解决呢? 下面我们介绍的全局表,就可以轻松解决这个问题。
⑤全局表
对于省、市、区/县表tb_areas_provinces , tb_areas_city , tb_areas_region,是属于数据字典表,在多个业务模块中都可能会遇到,可以将其设置为全局表,利于业务操作。
修改schema.xml中的逻辑表的配置,修改 tb_areas_provinces、tb_areas_city、tb_areas_region 三个逻辑表,添加关联的dataNode,并增加 type 属性,配置为global,就代表该表是全局表,就会在所涉及到的dataNode中创建该表。对于当前配置来说,也就意味着所有的节点中都有该表了。
<table name="tb_areas_provinces" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>
<table name="tb_areas_city" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>
<table name="tb_areas_region" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>

配置完毕后,重新启动MyCat。
#启动
bin/mycat start
#停止
bin/mycat stop
1). 删除原来每一个数据库服务器中的所有表结构
2). 通过source指令,导入表及数据
source /root/shopping-table.sql
source /root/shopping-insert.sql
3). 检查每一个数据库服务器中的表及数据分布,看到三个节点中都有这三张全局表
4). 然后再次执行上面的多表联查的SQL语句
SELECT order_id , payment ,receiver, province , city , area FROM tb_order_master o
, tb_areas_provinces p , tb_areas_city c , tb_areas_region r WHERE
o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND
o.receiver_region = r.areaid ;

是可以正常执行成功的。
5). 当在MyCat中更新全局表的时候,我们可以看到,所有分片节点中的数据都发生了变化,每个节点的全局表数据时刻保持一致。
(2)水平拆分
①场景
在业务系统中, 有一张表(日志表), 业务系统每天都会产生大量的日志数据 , 单台服务器的数据存储及处理能力是有限的, 可以对数据库表进行拆分。
②准备
准备三台服务器,具体的结构如下:

并且,在三台数据库服务器中分别创建一个数据库itcast。
③配置
1). schema.xml
<schema name="ITCAST" checkSQLschema="true" sqlMaxLimit="100">
<table name="tb_log" dataNode="dn4,dn5,dn6" primaryKey="id" rule="mod-long" />
</schema>
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
tb_log表最终落在3个节点中,分别是 dn4、dn5、dn6 ,而具体的数据分别存储在 dhost1、dhost2、dhost3的itcast数据库中。
分片规则为:mod-long,取模分片,默认mod 3
2). server.xml
配置root用户既可以访问 SHOPPING 逻辑库,又可以访问ITCAST逻辑库。
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST</property>
<!-- 表级 DML 权限设置 -->
<!--
<privileges check="true">
<schema name="DB01" dml="0110" >
<table name="TB_ORDER" dml="1110"></table>
</schema>
</privileges>
-->
</user>
④测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
CREATE TABLE tb_log (
id bigint(20) NOT NULL COMMENT 'ID',
model_name varchar(200) DEFAULT NULL COMMENT '模块名',
model_value varchar(200) DEFAULT NULL COMMENT '模块值',
return_value varchar(200) DEFAULT NULL COMMENT '返回值',
return_class varchar(200) DEFAULT NULL COMMENT '返回值类型',
operate_user varchar(20) DEFAULT NULL COMMENT '操作用户',
operate_time varchar(20) DEFAULT NULL COMMENT '操作时间',
param_and_value varchar(500) DEFAULT NULL COMMENT '请求参数名及参数值',
operate_class varchar(200) DEFAULT NULL COMMENT '操作类',
operate_method varchar(200) DEFAULT NULL COMMENT '操作方法',
cost_time bigint(20) DEFAULT NULL COMMENT '执行方法耗时, 单位 ms',
source int(1) DEFAULT NULL COMMENT '来源 : 1 PC , 2 Android , 3 IOS',
PRIMARY KEY (id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
Insert语句
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('1','user','insert','success','java.lang.String','10001','2022-01-06 18:12:28','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.controller.UserController','insert','10',1);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('2','user','insert','success','java.lang.String','10001','2022-01-06 18:12:27','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.controller.UserController','insert','23',1);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('3','user','update','success','java.lang.String','10001','2022-01-06 18:16:45','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.controller.UserController','update','34',1);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('4','user','update','success','java.lang.String','10001','2022-01-06 18:16:45','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.controller.UserController','update','13',2);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('5','user','insert','success','java.lang.String','10001','2022-01-06 18:30:31','{\"age\":\"200\",\"name\":\"TomCat\",\"gender\":\"0\"}','cn.itcast.controller.UserController','insert','29',3);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class, operate_user, operate_time, param_and_value, operate_class, operate_method, cost_time,source) VALUES('6','user','find','success','java.lang.String','10001','2022-01-06 18:30:31','{\"age\":\"200\",\"name\":\"TomCat\",\"gender\":\"0\"}','cn.itcast.controller.UserController','find','29',2);
(3)分片规则
①范围分片
1). 介绍
根据指定的字段及其配置的范围与数据节点的对应情况, 来决定该数据属于哪一个分片。

2). 配置
schema.xml逻辑表配置:
<table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" />
schema.xml数据节点配置:
<dataNode name="dn1" dataHost="dhost1" database="db01" />
<dataNode name="dn2" dataHost="dhost2" database="db01" />
<dataNode name="dn3" dataHost="dhost3" database="db01" />
rule.xml分片规则配置:
<tableRule name="auto-sharding-long">
<rule>
<columns>id</columns>
<algorithm>rang-long</algorithm>
</rule>
</tableRule>
<function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong">
<property name="mapFile">autopartition-long.txt</property>
<property name="defaultNode">0</property>
</function>
分片规则配置属性含义:
在rule.xml中配置分片规则时,关联了一个映射配置文件 autopartition-long.txt,该配置文件的配置如下:
# range start-end ,data node index
# K=1000,M=10000.
0-500M=0
500M-1000M=1
1000M-1500M=2
含义:0-500万之间的值,存储在0号数据节点(数据节点的索引从0开始) ; 500万-1000万之间的数据存储在1号数据节点 ; 1000万-1500万的数据节点存储在2号节点 ;
如果超出了1500w,比如1500w 01,则会报错,需要添加新的数据节点
该分片规则,主要是针对于数字类型的字段适用。 在MyCat的入门程序中,我们使用的就是该分片规则。
②取模分片
1). 介绍
根据指定的字段值与节点数量进行求模运算,根据运算结果, 来决定该数据属于哪一个分片。

2). 配置
schema.xml逻辑表配置:
<!-- 取模分片 -->
<table name="tb_log" dataNode="dn4,dn5,dn6" primaryKey="id" rule="mod-long" />
schema.xml数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
rule.xml分片规则配置:
<tableRule name="mod-long">
<rule>
<columns>id</columns>
<algorithm>mod-long</algorithm>
</rule>
</tableRule>
<function name="mod-long" class="io.mycat.route.function.PartitionByMod">
<property name="count">3</property>
</function>
分片规则属性说明如下:
该分片规则,主要是针对于数字类型的字段适用。 在前面水平拆分的演示中,我们选择的就是取模分片。
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
③一致性hash分片
1). 介绍
所谓一致性哈希,相同的哈希因子计算值总是被划分到相同的分区表中,不会因为分区节点的增加而改变原来数据的分区位置,有效的解决了分布式数据的拓容问题。
- 一致hash说的是节点增加不影响hash算法值

2). 配置
schema.xml中逻辑表配置:
<!-- 一致性hash -->
<table name="tb_order" dataNode="dn4,dn5,dn6" rule="sharding-by-murmur" />
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
rule.xml中分片规则配置:
<tableRule name="sharding-by-murmur">
<rule>
<columns>id</columns>
<algorithm>murmur</algorithm>
</rule>
</tableRule>
<function name="murmur" class="io.mycat.route.function.PartitionByMurmurHash">
<property name="seed">0</property><!-- 默认是0 -->
<property name="count">3</property>
<property name="virtualBucketTimes">160</property>
</function>
分片规则属性含义:
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_order(
id varchar(100) not null primary key,
money int null,
content varchar(200) null
);
INSERT INTO tb_order (id, money, content) VALUES ('b92fdaaf-6fc4-11ec-b831-482ae33c4a2d', 10, 'b92fdaf8-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b93482b6-6fc4-11ec-b831-482ae33c4a2d', 20, 'b93482d5-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b937e246-6fc4-11ec-b831-482ae33c4a2d', 50, 'b937e25d-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b93be2dd-6fc4-11ec-b831-482ae33c4a2d', 100, 'b93be2f9-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b93f2d68-6fc4-11ec-b831-482ae33c4a2d', 130, 'b93f2d7d-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9451b98-6fc4-11ec-b831-482ae33c4a2d', 30, 'b9451bcc-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9488ec1-6fc4-11ec-b831-482ae33c4a2d', 560, 'b9488edb-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b94be6e6-6fc4-11ec-b831-482ae33c4a2d', 10, 'b94be6ff-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b94ee10d-6fc4-11ec-b831-482ae33c4a2d', 123, 'b94ee12c-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b952492a-6fc4-11ec-b831-482ae33c4a2d', 145, 'b9524945-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b95553ac-6fc4-11ec-b831-482ae33c4a2d', 543, 'b95553c8-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9581cdd-6fc4-11ec-b831-482ae33c4a2d', 17, 'b9581cfa-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b95afc0f-6fc4-11ec-b831-482ae33c4a2d', 18, 'b95afc2a-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b95daa99-6fc4-11ec-b831-482ae33c4a2d', 134, 'b95daab2-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9667e3c-6fc4-11ec-b831-482ae33c4a2d', 156, 'b9667e60-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b96ab489-6fc4-11ec-b831-482ae33c4a2d', 175, 'b96ab4a5-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b96e2942-6fc4-11ec-b831-482ae33c4a2d', 180, 'b96e295b-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b97092ec-6fc4-11ec-b831-482ae33c4a2d', 123, 'b9709306-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b973727a-6fc4-11ec-b831-482ae33c4a2d', 230, 'b9737293-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b978840f-6fc4-11ec-b831-482ae33c4a2d', 560, 'b978843c-6fc4-11ec-b831-482ae33c4a2d');
④枚举分片
1). 介绍
通过在配置文件中配置可能的枚举值, 指定数据分布到不同数据节点上, 本规则适用于按照省份、性别、状态拆分数据等业务 。

2). 配置
这里按照tb_user表的 status字段 进行枚举分片,该status对应三个状态1,2,3
schema.xml中逻辑表配置:
<!-- 枚举 -->
<table name="tb_user" dataNode="dn4,dn5,dn6" rule="sharding-by-intfile-enumstatus"/>
<!-- 自己增加 tableRule: "sharding-by-intfile-enumstatus" -->
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
rule.xml中分片规则配置:
<tableRule name="sharding-by-intfile">
<rule>
<columns>sharding_id</columns>
<algorithm>hash-int</algorithm>
</rule>
</tableRule>
<!-- 自己增加 tableRule -->
<tableRule name="sharding-by-intfile-enumstatus">
<rule>
<columns>status</columns>
<algorithm>hash-int</algorithm>
</rule>
</tableRule>
<function name="hash-int" class="io.mycat.route.function.PartitionByFileMap">
<!-- defaultNode表示,若没有找到对应匹配的枚举,则使用默认配置的数据节点 -->
<property name="defaultNode">2</property>
<property name="mapFile">partition-hash-int.txt</property>
</function>
partition-hash-int.txt ,内容如下 :
1=0
2=1
3=2
分片规则属性含义:
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
CREATE TABLE tb_user (
id bigint(20) NOT NULL COMMENT 'ID',
username varchar(200) DEFAULT NULL COMMENT '姓名',
status int(2) DEFAULT '1' COMMENT '1: 未启用, 2: 已启用, 3: 已关闭',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_user (id,username ,status) values(1,'Tom',1);
insert into tb_user (id,username ,status) values(2,'Cat',2);
insert into tb_user (id,username ,status) values(3,'Rose',3);
insert into tb_user (id,username ,status) values(4,'Coco',2);
insert into tb_user (id,username ,status) values(5,'Lily',1);
insert into tb_user (id,username ,status) values(6,'Tom',1);
insert into tb_user (id,username ,status) values(7,'Cat',2);
insert into tb_user (id,username ,status) values(8,'Rose',3);
insert into tb_user (id,username ,status) values(9,'Coco',2);
insert into tb_user (id,username ,status) values(10,'Lily',1);
⑤应用指定算法
1). 介绍
运行阶段由应用自主决定路由到那个分片 , 直接根据字符子串(必须是数字)计算分片号。

2). 配置
schema.xml中逻辑表配置:
<!-- 应用指定算法 -->
<table name="tb_app" dataNode="dn4,dn5,dn6" rule="sharding-by-substring" />
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
rule.xml中分片规则配置:
<tableRule name="sharding-by-substring">
<rule>
<columns>id</columns>
<algorithm>sharding-by-substring</algorithm>
</rule>
</tableRule>
<function name="sharding-by-substring"
class="io.mycat.route.function.PartitionDirectBySubString">
<property name="startIndex">0</property> <!-- zero-based -->
<property name="size">2</property>
<property name="partitionCount">3</property>
<property name="defaultPartition">0</property>
</function>
分片规则属性含义:
示例说明 :
id=05-100000002 , 在此配置中代表根据id中从 startIndex=0,开始,截取siz=2位数字即05,05就是获取的分区,如果没找到对应的分片则默认分配到defaultPartition 。
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
CREATE TABLE tb_app (
id varchar(10) NOT NULL COMMENT 'ID',
name varchar(200) DEFAULT NULL COMMENT '名称',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_app (id,name) values('0000001','Testx00001');
insert into tb_app (id,name) values('0100001','Test100001');
insert into tb_app (id,name) values('0100002','Test200001');
insert into tb_app (id,name) values('0200001','Test300001');
insert into tb_app (id,name) values('0200002','TesT400001');
⑥固定分片hash算法
1). 介绍
该算法类似于十进制的求模运算,但是为二进制的操作。
例如,取 id 的二进制低 10 位 与1111111111 进行位 & 运算
- 位与运算最小值为 0000000000,最大值为1111111111,转换为十进制,也就是位于0-1023之间。
特点:
- 如果是求模,连续的值,分别分配到各个不同的分片;但是此算法**会将连续的值可能分配到相同的分片,降低事务处理的难度。**
- 可以均匀分配,也可以非均匀分配。
- 分片字段必须为数字类型。
2). 配置
schema.xml中逻辑表配置:
<!-- 固定分片hash算法 -->
<table name="tb_longhash" dataNode="dn4,dn5,dn6" rule="sharding-by-long-hash" />
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
rule.xml中分片规则配置:
<tableRule name="sharding-by-long-hash">
<rule>
<columns>id</columns>
<algorithm>sharding-by-long-hash</algorithm>
</rule>
</tableRule>
<!-- 分片总长度为1024,count与length数组长度必须一致; -->
<function name="sharding-by-long-hash"
class="io.mycat.route.function.PartitionByLong">
<property name="partitionCount">2,1</property>
<property name="partitionLength">256,512</property>
</function>
分片规则属性含义:
约束 :
- 1). 分片长度 : 默认最大2^10 , 为 1024 ;
- 2). count, length的数组长度必须是一致的 ;
以上分为三个分区:0-255,256-511,512-1023
示例说明 :
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
CREATE TABLE tb_longhash (
id int(11) NOT NULL COMMENT 'ID',
name varchar(200) DEFAULT NULL COMMENT '名称',
firstChar char(1) COMMENT '首字母',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_longhash (id,name,firstChar) values(1,'七匹狼','Q');
insert into tb_longhash (id,name,firstChar) values(2,'八匹狼','B');
insert into tb_longhash (id,name,firstChar) values(3,'九匹狼','J');
insert into tb_longhash (id,name,firstChar) values(4,'十匹狼','S');
insert into tb_longhash (id,name,firstChar) values(5,'六匹狼','L');
insert into tb_longhash (id,name,firstChar) values(6,'五匹狼','W');
insert into tb_longhash (id,name,firstChar) values(7,'四匹狼','S');
insert into tb_longhash (id,name,firstChar) values(8,'三匹狼','S');
insert into tb_longhash (id,name,firstChar) values(9,'两匹狼','L');
⑦字符串hash解析算法
1). 介绍
截取字符串中的指定位置的子字符串, 进行hash算法, 算出分片。
2). 配置
schema.xml中逻辑表配置:
<!-- 字符串hash解析算法 -->
<table name="tb_strhash" dataNode="dn4,dn5" rule="sharding-by-stringhash" />
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
rule.xml中分片规则配置:
<tableRule name="sharding-by-stringhash">
<rule>
<columns>name</columns>
<algorithm>sharding-by-stringhash</algorithm>
</rule>
</tableRule>
<function name="sharding-by-stringhash"
class="io.mycat.route.function.PartitionByString">
<property name="partitionLength">512</property> <!-- zero-based -->
<property name="partitionCount">2</property>
<property name="hashSlice">0:2</property>
</function>
分片规则属性含义:
示例说明:
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_strhash(
name varchar(20) primary key,
content varchar(100)
)engine=InnoDB DEFAULT CHARSET=utf8mb4;
INSERT INTO tb_strhash (name,content) VALUES('T1001', UUID());
INSERT INTO tb_strhash (name,content) VALUES('ROSE', UUID());
INSERT INTO tb_strhash (name,content) VALUES('JERRY', UUID());
INSERT INTO tb_strhash (name,content) VALUES('CRISTINA', UUID());
INSERT INTO tb_strhash (name,content) VALUES('TOMCAT', UUID());
⑧按天分片算法
1). 介绍
按照日期及对应的时间周期来分片。
2). 配置
schema.xml中逻辑表配置:
<!-- 按天分片 -->
<table name="tb_datepart" dataNode="dn4,dn5,dn6" rule="sharding-by-date" />
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" /
rule.xml中分片规则配置:
<tableRule name="sharding-by-date">
<rule>
<columns>create_time</columns>
<algorithm>sharding-by-date</algorithm>
</rule>
</tableRule>
<function name="sharding-by-date"
class="io.mycat.route.function.PartitionByDate">
<property name="dateFormat">yyyy-MM-dd</property>
<property name="sBeginDate">2022-01-01</property>
<property name="sEndDate">2022-01-30</property>
<property name="sPartionDay">10</property>
</function>
<!--
从开始时间开始,每10天为一个分片,到达结束时间之后,会重复开始分片插入。
配置表的 dataNode 的分片,必须和分片规则数量一致,
例如 2022-01-01 到 2022-12-31 ,每10天一个分片,一共需要37个分片。
-->
分片规则属性含义:
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_datepart(
id bigint not null comment 'ID' primary key,
name varchar(100) null comment '姓名',
create_time date null
)engine=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_datepart(id,name ,create_time) values(1,'Tom','2022-01-01');
insert into tb_datepart(id,name ,create_time) values(2,'Cat','2022-01-10');
insert into tb_datepart(id,name ,create_time) values(3,'Rose','2022-01-11');
insert into tb_datepart(id,name ,create_time) values(4,'Coco','2022-01-20');
insert into tb_datepart(id,name ,create_time) values(5,'Rose2','2022-01-21');
insert into tb_datepart(id,name ,create_time) values(6,'Coco2','2022-01-30');
insert into tb_datepart(id,name ,create_time) values(7,'Coco3','2022-01-31');
⑨自然月分片
1). 介绍
使用场景为按照月份来分片, 每个自然月为一个分片。

2). 配置
schema.xml中逻辑表配置:
<!-- 按自然月分片 -->
<table name="tb_monthpart" dataNode="dn4,dn5,dn6" rule="sharding-by-month" />
schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
rule.xml中分片规则配置:
<tableRule name="sharding-by-month">
<rule>
<columns>create_time</columns>
<algorithm>partbymonth</algorithm>
</rule>
</tableRule>
<function name="partbymonth" class="io.mycat.route.function.PartitionByMonth">
<property name="dateFormat">yyyy-MM-dd</property>
<property name="sBeginDate">2022-01-01</property>
<property name="sEndDate">2022-03-31</property>
</function>
<!--
从开始时间开始,一个月为一个分片,到达结束时间之后,会重复开始分片插入
配置表的 dataNode 的分片,必须和分片规则数量一致,例如 2022-01-01 到 2022-12-31 ,一
共需要12个分片。
这里就是说分片的段数一定不能少于时间的间隔,但是时间的间隔可以大于分片的长度
-->
分片规则属性含义:
3). 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_monthpart(
id bigint not null comment 'ID' primary key,
name varchar(100) null comment '姓名',
create_time date null
)engine=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_monthpart(id,name ,create_time) values(1,'Tom','2022-01-01');
insert into tb_monthpart(id,name ,create_time) values(2,'Cat','2022-01-10');
insert into tb_monthpart(id,name ,create_time) values(3,'Rose','2022-01-31');
insert into tb_monthpart(id,name ,create_time) values(4,'Coco','2022-02-20');
insert into tb_monthpart(id,name ,create_time) values(5,'Rose2','2022-02-25');
insert into tb_monthpart(id,name ,create_time) values(6,'Coco2','2022-03-10');
insert into tb_monthpart(id,name ,create_time) values(7,'Coco3','2022-03-31');
insert into tb_monthpart(id,name ,create_time) values(8,'Coco4','2022-04-10');
insert into tb_monthpart(id,name ,create_time) values(9,'Coco5','2022-04-30');
(4)最终配置文件案例
①schema.xml
<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
<schema name="SHOPPING" checkSQLschema="true" sqlMaxLimit="100">
<table name="tb_goods_base" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_brand" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_cat" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_desc" dataNode="dn1" primaryKey="goods_id" />
<table name="tb_goods_item" dataNode="dn1" primaryKey="id" />
<table name="tb_order_item" dataNode="dn2" primaryKey="id" />
<table name="tb_order_master" dataNode="dn2" primaryKey="order_id" />
<table name="tb_order_pay_log" dataNode="dn2" primaryKey="out_trade_no" />
<table name="tb_user" dataNode="dn3" primaryKey="id" />
<table name="tb_user_address" dataNode="dn3" primaryKey="id" />
<table name="tb_areas_provinces" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>
<table name="tb_areas_city" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>
<table name="tb_areas_region" dataNode="dn1,dn2,dn3" primaryKey="id" type="global"/>
</schema>
<schema name="ITCAST" checkSQLschema="true" sqlMaxLimit="100">
<!-- 取模分片 -->
<table name="tb_log" dataNode="dn4,dn5,dn6" primaryKey="id" rule="mod-long" />
<!-- 一致性hash -->
<table name="tb_order" dataNode="dn4,dn5,dn6" rule="sharding-by-murmur" />
<!-- 枚举 -->
<table name="tb_user" dataNode="dn4,dn5,dn6" rule="sharding-by-intfile-enumstatus"/>
<!-- 自己增加 tableRule: "sharding-by-intfile-enumstatus" -->
<!-- 应用指定算法 -->
<table name="tb_app" dataNode="dn4,dn5,dn6" rule="sharding-by-substring" />
<!-- 固定分片hash算法 -->
<table name="tb_longhash" dataNode="dn4,dn5,dn6" rule="sharding-by-long-hash" />
<!-- 字符串hash解析算法 -->
<table name="tb_strhash" dataNode="dn4,dn5" rule="sharding-by-stringhash" />
<!-- 按天分片 -->
<table name="tb_datepart" dataNode="dn4,dn5,dn6" rule="sharding-by-date" />
<!-- 按自然月分片 -->
<table name="tb_monthpart" dataNode="dn4,dn5,dn6" rule="sharding-by-month" />
</schema>
<dataNode name="dn1" dataHost="dhost1" database="shopping" />
<dataNode name="dn2" dataHost="dhost2" database="shopping" />
<dataNode name="dn3" dataHost="dhost3" database="shopping" />
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.130:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="root" />
</dataHost>
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.131:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="root" />
</dataHost>
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"
slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.88.129:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" />
</dataHost>
</mycat:schema>
②rule.xml
<?xml version="1.0" encoding="UTF-8"?>
<!-- - - Licensed under the Apache License, Version 2.0 (the "License");
- you may not use this file except in compliance with the License. - You
may obtain a copy of the License at - - http://www.apache.org/licenses/LICENSE-2.0
- - Unless required by applicable law or agreed to in writing, software -
distributed under the License is distributed on an "AS IS" BASIS, - WITHOUT
WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. - See the
License for the specific language governing permissions and - limitations
under the License. -->
<!DOCTYPE mycat:rule SYSTEM "rule.dtd">
<mycat:rule xmlns:mycat="http://io.mycat/">
<tableRule name="rule1">
<rule>
<columns>id</columns>
<algorithm>func1</algorithm>
</rule>
</tableRule>
<tableRule name="rule2">
<rule>
<columns>user_id</columns>
<algorithm>func1</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-intfile">
<rule>
<columns>sharding_id</columns>
<algorithm>hash-int</algorithm>
</rule>
</tableRule>
<!-- 自己增加 tableRule -->
<tableRule name="sharding-by-intfile-enumstatus">
<rule>
<columns>status</columns>
<algorithm>hash-int</algorithm>
</rule>
</tableRule>
<tableRule name="auto-sharding-long">
<rule>
<columns>id</columns>
<algorithm>rang-long</algorithm>
</rule>
</tableRule>
<tableRule name="mod-long">
<rule>
<columns>id</columns>
<algorithm>mod-long</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-murmur">
<rule>
<columns>id</columns>
<algorithm>murmur</algorithm>
</rule>
</tableRule>
<tableRule name="crc32slot">
<rule>
<columns>id</columns>
<algorithm>crc32slot</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-month">
<rule>
<columns>create_time</columns>
<algorithm>partbymonth</algorithm>
</rule>
</tableRule>
<tableRule name="latest-month-calldate">
<rule>
<columns>calldate</columns>
<algorithm>latestMonth</algorithm>
</rule>
</tableRule>
<tableRule name="auto-sharding-rang-mod">
<rule>
<columns>id</columns>
<algorithm>rang-mod</algorithm>
</rule>
</tableRule>
<tableRule name="jch">
<rule>
<columns>id</columns>
<algorithm>jump-consistent-hash</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-substring">
<rule>
<columns>id</columns>
<algorithm>sharding-by-substring</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-long-hash">
<rule>
<columns>id</columns>
<algorithm>sharding-by-long-hash</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-stringhash">
<rule>
<columns>name</columns>
<algorithm>sharding-by-stringhash</algorithm>
</rule>
</tableRule>
<tableRule name="sharding-by-date">
<rule>
<columns>create_time</columns>
<algorithm>sharding-by-date</algorithm>
</rule>
</tableRule>
<function name="murmur"
class="io.mycat.route.function.PartitionByMurmurHash">
<property name="seed">0</property><!-- 默认是0 -->
<property name="count">2</property><!-- 要分片的数据库节点数量,必须指定,否则没法分片 -->
<property name="virtualBucketTimes">160</property><!-- 一个实际的数据库节点被映射为这么多虚拟节点,默认是160倍,也就是虚拟节点数是物理节点数的160倍 -->
<!-- <property name="weightMapFile">weightMapFile</property> 节点的权重,没有指定权重的节点默认是1。以properties文件的格式填写,以从0开始到count-1的整数值也就是节点索引为key,以节点权重值为值。所有权重值必须是正整数,否则以1代替 -->
<!-- <property name="bucketMapPath">/etc/mycat/bucketMapPath</property>
用于测试时观察各物理节点与虚拟节点的分布情况,如果指定了这个属性,会把虚拟节点的murmur hash值与物理节点的映射按行输出到这个文件,没有默认值,如果不指定,就不会输出任何东西 -->
</function>
<function name="crc32slot"
class="io.mycat.route.function.PartitionByCRC32PreSlot">
</function>
<function name="hash-int" class="io.mycat.route.function.PartitionByFileMap">
<!-- defaultNode表示,若没有找到对应匹配的枚举,则使用默认配置的数据节点 -->
<property name="defaultNode">2</property>
<property name="mapFile">partition-hash-int.txt</property>
</function>
<function name="rang-long"
class="io.mycat.route.function.AutoPartitionByLong">
<property name="mapFile">autopartition-long.txt</property>
</function>
<function name="mod-long" class="io.mycat.route.function.PartitionByMod">
<!-- how many data nodes -->
<property name="count">3</property>
</function>
<function name="func1" class="io.mycat.route.function.PartitionByLong">
<property name="partitionCount">8</property>
<property name="partitionLength">128</property>
</function>
<function name="latestMonth"
class="io.mycat.route.function.LatestMonthPartion">
<property name="splitOneDay">24</property>
</function>
<function name="rang-mod" class="io.mycat.route.function.PartitionByRangeMod">
<property name="mapFile">partition-range-mod.txt</property>
</function>
<function name="jump-consistent-hash" class="io.mycat.route.function.PartitionByJumpConsistentHash">
<property name="totalBuckets">3</property>
</function>
<function name="sharding-by-substring" class="io.mycat.route.function.PartitionDirectBySubString">
<property name="startIndex">0</property> <!-- zero-based -->
<property name="size">2</property>
<property name="partitionCount">3</property>
<property name="defaultPartition">0</property>
</function>
<!-- 分片总长度为1024,count与length数组长度必须一致; -->
<function name="sharding-by-long-hash" class="io.mycat.route.function.PartitionByLong">
<property name="partitionCount">2,1</property>
<property name="partitionLength">256,512</property>
</function>
<function name="sharding-by-stringhash" class="io.mycat.route.function.PartitionByString">
<property name="partitionLength">512</property> <!-- zero-based -->
<property name="partitionCount">2</property>
<property name="hashSlice">0:2</property>
</function>
<function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate">
<property name="dateFormat">yyyy-MM-dd</property>
<property name="sBeginDate">2022-01-01</property>
<property name="sEndDate">2022-01-30</property>
<property name="sPartionDay">10</property>
</function>
<!--
从开始时间开始,每10天为一个分片,到达结束时间之后,会重复开始分片插入。
配置表的 dataNode 的分片,必须和分片规则数量一致,
例如 2022-01-01 到 2022-12-31 ,每10天一个分片,一共需要37个分片。
-->
<function name="partbymonth" class="io.mycat.route.function.PartitionByMonth">
<property name="dateFormat">yyyy-MM-dd</property>
<property name="sBeginDate">2022-01-01</property>
<property name="sEndDate">2022-03-31</property>
</function>
<!--
从开始时间开始,一个月为一个分片,到达结束时间之后,会重复开始分片插入
配置表的 dataNode 的分片,必须和分片规则数量一致,例如 2022-01-01 到 2022-12-31 ,一
共需要12个分片。
这里就是说分片的段数一定不能少于时间的间隔,但是时间的间隔可以大于分片的长度
-->
</mycat:rule>
③server.xml
<?xml version="1.0" encoding="UTF-8"?>
<!-- - - Licensed under the Apache License, Version 2.0 (the "License");
- you may not use this file except in compliance with the License. - You
may obtain a copy of the License at - - http://www.apache.org/licenses/LICENSE-2.0
- - Unless required by applicable law or agreed to in writing, software -
distributed under the License is distributed on an "AS IS" BASIS, - WITHOUT
WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. - See the
License for the specific language governing permissions and - limitations
under the License. -->
<!DOCTYPE mycat:server SYSTEM "server.dtd">
<mycat:server xmlns:mycat="http://io.mycat/">
<system>
<property name="nonePasswordLogin">0</property> <!-- 0为需要密码登陆、1为不需要密码登陆 ,默认为0,设置为1则需要指定默认账户-->
<property name="useHandshakeV10">1</property>
<property name="useSqlStat">1</property> <!-- 1为开启实时统计、0为关闭 -->
<property name="useGlobleTableCheck">0</property> <!-- 1为开启全加班一致性检测、0为关闭 -->
<property name="sqlExecuteTimeout">300</property> <!-- SQL 执行超时 单位:秒-->
<property name="sequnceHandlerType">2</property>
<!--<property name="sequnceHandlerPattern">(?:(\s*next\s+value\s+for\s*MYCATSEQ_(\w+))(,|\)|\s)*)+</property>-->
<!--必须带有MYCATSEQ_或者 mycatseq_进入序列匹配流程 注意MYCATSEQ_有空格的情况-->
<property name="sequnceHandlerPattern">(?:(\s*next\s+value\s+for\s*MYCATSEQ_(\w+))(,|\)|\s)*)+</property>
<property name="subqueryRelationshipCheck">false</property> <!-- 子查询中存在关联查询的情况下,检查关联字段中是否有分片字段 .默认 false -->
<!-- <property name="useCompression">1</property>--> <!--1为开启mysql压缩协议-->
<!-- <property name="fakeMySQLVersion">5.6.20</property>--> <!--设置模拟的MySQL版本号-->
<!-- <property name="processorBufferChunk">40960</property> -->
<!--
<property name="processors">1</property>
<property name="processorExecutor">32</property>
-->
<!--默认为type 0: DirectByteBufferPool | type 1 ByteBufferArena | type 2 NettyBufferPool -->
<property name="processorBufferPoolType">0</property>
<!--默认是65535 64K 用于sql解析时最大文本长度 -->
<!--<property name="maxStringLiteralLength">65535</property>-->
<!--<property name="sequnceHandlerType">0</property>-->
<!--<property name="backSocketNoDelay">1</property>-->
<!--<property name="frontSocketNoDelay">1</property>-->
<!--<property name="processorExecutor">16</property>-->
<!--
<property name="serverPort">8066</property> <property name="managerPort">9066</property>
<property name="idleTimeout">300000</property> <property name="bindIp">0.0.0.0</property>
<property name="dataNodeIdleCheckPeriod">300000</property> 5 * 60 * 1000L; //连接空闲检查
<property name="frontWriteQueueSize">4096</property> <property name="processors">32</property> -->
<!--分布式事务开关,0为不过滤分布式事务,1为过滤分布式事务(如果分布式事务内只涉及全局表,则不过滤),2为不过滤分布式事务,但是记录分布式事务日志-->
<property name="handleDistributedTransactions">0</property>
<!--
off heap for merge/order/group/limit 1开启 0关闭
-->
<property name="useOffHeapForMerge">0</property>
<!--
单位为m
-->
<property name="memoryPageSize">64k</property>
<!--
单位为k
-->
<property name="spillsFileBufferSize">1k</property>
<property name="useStreamOutput">0</property>
<!--
单位为m
-->
<property name="systemReserveMemorySize">384m</property>
<!--是否采用zookeeper协调切换 -->
<property name="useZKSwitch">false</property>
<!-- XA Recovery Log日志路径 -->
<!--<property name="XARecoveryLogBaseDir">./</property>-->
<!-- XA Recovery Log日志名称 -->
<!--<property name="XARecoveryLogBaseName">tmlog</property>-->
<!--如果为 true的话 严格遵守隔离级别,不会在仅仅只有select语句的时候在事务中切换连接-->
<property name="strictTxIsolation">false</property>
<property name="useZKSwitch">true</property>
</system>
<!-- 全局SQL防火墙设置 -->
<!--白名单可以使用通配符%或着*-->
<!--例如<host host="127.0.0.*" user="root"/>-->
<!--例如<host host="127.0.*" user="root"/>-->
<!--例如<host host="127.*" user="root"/>-->
<!--例如<host host="1*7.*" user="root"/>-->
<!--这些配置情况下对于127.0.0.1都能以root账户登录-->
<!--
<firewall>
<whitehost>
<host host="1*7.0.0.*" user="root"/>
</whitehost>
<blacklist check="false">
</blacklist>
</firewall>
-->
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST</property>
<!-- 表级 DML 权限设置 -->
<!--
<privileges check="true">
<schema name="DB01" dml="0110" >
<table name="TB_ORDER" dml="1110"></table>
</schema>
</privileges>
-->
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">SHOPPING</property>
<property name="readOnly">true</property>
</user>
</mycat:server>
3.6 MyCat管理及监控
(1)MyCat原理
在MyCat中,当执行一条SQL语句时,MyCat需要进行SQL解析、分片分析、路由分析、读写分离分析等操作,最终经过一系列的分析决定将当前的SQL语句到底路由到那几个(或哪一个)节点数据库,数据库将数据执行完毕后,如果有返回的结果,则将结果返回给MyCat,最终还需要在MyCat中进行结果合并、聚合处理、排序处理、分页处理等操作,最终再将结果返回给客户端。
而在MyCat的使用过程中,MyCat官方也提供了一个管理监控平台MyCat-Web(MyCat-eye)。Mycat-web 是 Mycat 可视化运维的管理和监控平台,弥补了 Mycat 在监控上的空白。帮 Mycat分担统计任务和配置管理任务。Mycat-web 引入了 ZooKeeper 作为配置中心,可以管理多个节点。
Mycat-web 主要管理和监控 Mycat 的流量、连接、活动线程和内存等,具备 IP 白名单、邮件告警等模块,还可以统计 SQL 并分析慢 SQL 和高频 SQL 等。为优化 SQL 提供依据。
(2)MyCat管理
Mycat默认开通2个端口,可以在server.xml中进行修改。
- 8066 数据访问端口,即进行 DML 和 DDL 操作。
- 9066 数据库管理端口,即 mycat 服务管理控制功能,用于管理mycat的整个集群状态
连接MyCat的管理控制台:
mysql -h 192.168.200.210 -p 9066 -uroot -p123456
mysql -h 192.168.88.130 -p 9066 -uroot -p123456
(3)MyCat-eye
①介绍
Mycat-web(Mycat-eye)是对mycat-server提供监控服务,功能不局限于对mycat-server使用。他通过JDBC连接对Mycat、Mysql监控,监控远程服务器(目前仅限于linux系统)的cpu、内存、网络、磁盘。
Mycat-eye运行过程中需要依赖zookeeper,因此需要先安装zookeeper。
②安装
1). zookeeper安装
A. 上传安装包
zookeeper-3.4.6.tar.gz
B. 解压
tar -zxvf zookeeper-3.4.6.tar.gz -C /usr/local/
C. 创建数据存放目录
cd /usr/local/zookeeper-3.4.6/
mkdir data
cd data
pwd #复制data的文件夹路径
D. 修改配置文件名称并配置
cd conf
mv zoo_sample.cfg zoo.cfg # 重命名
E. 配置数据存放目录
vim zoo.cfg
dataDir=/usr/local/zookeeper-3.4.6/data
F. 启动Zookeeper
bin/zkServer.sh start
bin/zkServer.sh status
2). Mycat-web安装
A. 上传安装包
- Mycat-web.tar.gz
B. 解压
tar -zxvf Mycat-web.tar.gz -C /usr/local/
C. 目录介绍
- etc ----> jetty配置文件
- lib ----> 依赖jar包
- mycat-web ----> mycat-web项目
- readme.txt
- start.jar ----> 启动jar
- start.sh ----> linux启动脚本
D. 启动
cd /usr/local/mycat-web
sh start.sh
开放端口:
开放指定端口(firewall-cmd --zone=public --add-port=8080/tcp --permanent)
关闭指定端口(firewall-cmd --zone=public --remove-port=8080/tcp --permanent)
立即生效(firewall-cmd --reload),开放或者关闭端口后需要执行立即生效命令
查看开放的端口(firewall-cmd --zone=public --list-ports)
E. 访问
# 开放8082端口
firewall-cmd --zone=public --add-port=8082/tcp --permanent
firewall-cmd --reload
备注:
如果Zookeeper与Mycat-web不在同一台服务器上 , 需要设置Zookeeper的地址 ; 在/usr/local/mycat-web/mycat-web/WEB-INF/classes/mycat.properties文件中配置 :
具体的安装步骤,请参考资料中提供的《MyCat-Web安装文档》
③访问
http://192.168.88.130:8082/mycat

④配置
1). 开启MyCat的实时统计功能(server.xml)
<property name="useSqlStat">1</property> <!-- 1为开启实时统计、0为关闭 -->
2). 在Mycat监控界面配置服务地址


⑤测试
配置好了之后,我们可以通过MyCat执行一系列的增删改查的测试,然后过一段时间之后,打开mycat-eye的管理界面,查看mycat-eye监控到的数据信息。
A. 性能监控

B. 物理节点
C. SQL统计

D. SQL表分析

E. SQL监控
F. 高频SQL
G.SQL解析


3.7 小结
4、读写分离
更新: 2025/4/19 字数: 0 字 时长: 0 分钟
4.1 介绍
读写分离,简单地说是把对数据库的读和写操作分开,以对应不同的数据库服务器。主数据库提供写操作,从数据库提供读操作,这样能有效地减轻单台数据库的压力。
通过MyCat即可轻易实现上述功能,不仅可以支持MySQL,也可以支持Oracle和SQL Server。
4.2 一主一从
(1)原理
MySQL的主从复制,是基于==二进制日志(binlog)==实现的。
(2)准备
备注:主从复制的搭建,可以参考前面课程中 主从复制 章节讲解的步骤操作。
4.3 一主一从读写分离
MyCat控制后台数据库的读写分离和负载均衡由schema.xml文件datahost标签的balance属性控制。
(1)schema.xml配置
<!-- 配置逻辑库 -->
<schema name="ITCAST_RW" checkSQLschema="true" sqlMaxLimit="100" dataNode="dn7">
<!-- 会自动加载对应数据节点的数据库,然后再自动生成逻辑表 -->
</schema>
<dataNode name="dn7" dataHost="dhost7" database="itcast" />
<dataHost name="dhost7" maxCon="1000" minCon="10" balance="1" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master1" url="jdbc:mysql://192.168.200.211:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="1234" >
<readHost host="slave1" url="jdbc:mysql://192.168.200.212:3306? useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="1234" />
</writeHost>
</dataHost>
上述配置的具体关联对应情况如下:
writeHost代表的是写操作对应的数据库,readHost代表的是读操作对应的数据库。
所以我们要想实现读写分离,就得配置writeHost关联的是主库,readHost关联的是从库。而仅仅配置好了writeHost以及readHost还不能完成读写分离,还需要配置一个非常重要的**负责均衡的参数 balance**,取值有4种,具体含义如下:
所以,在一主一从模式的读写分离中,balance配置1或3都是可以完成读写分离的。
(2)server.xml配置
配置root用户可以访问SHOPPING、ITCAST 以及 ITCAST_RW逻辑库。
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST,ITCAST_RW</property>
<!-- 表级 DML 权限设置 -->
<!--
<privileges check="true">
<schema name="DB01" dml="0110" >
<table name="TB_ORDER" dml="1110"></table>
</schema>
</privileges>
-->
</user>
(3)测试
配置完毕MyCat后,重新启动MyCat。
bin/mycat stop
bin/mycat start
然后观察,在执行增删改操作时,对应的主库及从库的数据变化。 在执行查询操作时,检查主库及从库对应的数据变化。
在测试中,我们可以发现当主节点Master宕机之后,业务系统就只能够读,而不能写入数据了。
那如何解决这个问题呢?这个时候我们就得通过另外一种主从复制结构来解决了,也就是我们接下来讲解的双主双从。
4.4 双主双从
(1)介绍
一个主机 Master1 用于处理所有写请求,它的从机 Slave1 和另一台主机 Master2 还有它的从机 Slave2 负责所有读请求。当 Master1 主机宕机后,Master2 主机负责写请求,Master1 、Master2 互为备机。架构图如下:
(2)准备
我们需要准备5台服务器,具体的服务器及软件安装情况如下:
关闭以上所有服务器的防火墙或者开放3306的端口:
systemctl stop firewalld
systemctl disable firewalld
(3)搭建
①主库配置
1). Master1(192.168.200.211)

A. 修改配置文件 /etc/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 2^32-1,默认为1
server-id=1
#只同步指定的数据库
binlog-do-db=db01
binlog-do-db=db02
binlog-do-db=db03
# 在作为从数据库的时候,有写入操作也要更新二进制日志文件
log-slave-updates
B. 重启MySQL服务器
systemctl restart mysqld
C. 创建账户并授权
#创建itcast用户,并设置密码,该用户可在任意主机连接该MySQL服务
CREATE USER 'itcast'@'%' IDENTIFIED WITH mysql_native_password BY 'Root@123456';
#为 'itcast'@'%' 用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'itcast'@'%';
通过指令,查看两台主库的二进制日志坐标
show master status ;
2). Master2(192.168.200.213)

A. 修改配置文件 /etc/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 2^32-1,默认为1
server-id=3
#指定同步的数据库
binlog-do-db=db01
binlog-do-db=db02
binlog-do-db=db03
# 在作为从数据库的时候,有写入操作也要更新二进制日志文件
log-slave-updates
B. 重启MySQL服务器
systemctl restart mysqld
C. 创建账户并授权
#创建itcast用户,并设置密码,该用户可在任意主机连接该MySQL服务
CREATE USER 'itcast'@'%' IDENTIFIED WITH mysql_native_password BY 'Root@123456';
#为 'itcast'@'%' 用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'itcast'@'%';
通过指令,查看两台主库的二进制日志坐标
show master status ;
②从库配置
1). Slave1(192.168.200.212)

A. 修改配置文件 /etc/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 232-1,默认为1
server-id=2
B. 重新启动MySQL服务器
systemctl restart mysqld
2). Slave2(192.168.200.214)

A. 修改配置文件 /etc/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 232-1,默认为1
server-id=4
B. 重新启动MySQL服务器
systemctl restart mysqld
③从库关联主库
1). 两台从库配置关联的主库
需要注意slave1对应的是master1,slave2对应的是master2。

A. 在 slave1(192.168.200.212)上执行
CHANGE MASTER TO MASTER_HOST='192.168.200.211', MASTER_USER='itcast',
MASTER_PASSWORD='Root@123456', MASTER_LOG_FILE='binlog.000002',
MASTER_LOG_POS=663;
B. 在 slave2(192.168.200.214)上执行
CHANGE MASTER TO MASTER_HOST='192.168.200.213', MASTER_USER='itcast',
MASTER_PASSWORD='Root@123456', MASTER_LOG_FILE='binlog.000002',
MASTER_LOG_POS=663;
C. 启动两台从库主从复制,查看从库状态
start slave;
show slave status \G;

2). 两台主库相互复制

Master2 复制 Master1,Master1 复制 Master2。
A. 在 Master1(192.168.200.211)上执行
CHANGE MASTER TO MASTER_HOST='192.168.200.213', MASTER_USER='itcast',
MASTER_PASSWORD='Root@123456', MASTER_LOG_FILE='binlog.000002',
MASTER_LOG_POS=663;
B. 在 Master2(192.168.200.213)上执行
CHANGE MASTER TO MASTER_HOST='192.168.200.211', MASTER_USER='itcast',
MASTER_PASSWORD='Root@123456', MASTER_LOG_FILE='binlog.000002',
MASTER_LOG_POS=663;
C. 启动两台从库主从复制,查看从库状态
start slave;
show slave status \G;
经过上述的三步配置之后,双主双从的复制结构就已经搭建完成了。 接下来,我们可以来测试验证一下。
(4)测试
分别在两台主库Master1、Master2上执行DDL、DML语句,查看涉及到的数据库服务器的数据同步情况。
create database db01;
use db01;
create table tb_user(
id int(11) not null primary key ,
name varchar(50) not null,
sex varchar(1)
)engine=innodb default charset=utf8mb4;
insert into tb_user(id,name,sex) values(1,'Tom','1');
insert into tb_user(id,name,sex) values(2,'Trigger','0');
insert into tb_user(id,name,sex) values(3,'Dawn','1');
insert into tb_user(id,name,sex) values(4,'Jack Ma','1');
insert into tb_user(id,name,sex) values(5,'Coco','0');
insert into tb_user(id,name,sex) values(6,'Jerry','1');
- 在Master1中执行DML、DDL操作,看看数据是否可以同步到另外的三台数据库中。
- 在Master2中执行DML、DDL操作,看看数据是否可以同步到另外的三台数据库中。
完成了上述双主双从的结构搭建之后,接下来,我们再来看看如何完成这种双主双从的读写分离。
4.5 双主双从读写分离
(1)配置
MyCat控制后台数据库的读写分离和负载均衡由schema.xml文件datahost标签的balance属性控制,通过writeType及switchType来完成失败自动切换的。
①schema.xml
配置逻辑库:
<schema name="ITCAST_RW2" checkSQLschema="true" sqlMaxLimit="100" dataNode="dn7">
</schema>
配置数据节点:
<dataNode name="dn7" dataHost="dhost7" database="db01" />
配置节点主机:
<dataHost name="dhost7" maxCon="1000" minCon="10" balance="1" writeType="0"
dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master1" url="jdbc:mysql://192.168.200.211:3306? useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" >
<readHost host="slave1" url="jdbc:mysql://192.168.200.212:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" />
</writeHost>
<writeHost host="master2" url="jdbc:mysql://192.168.200.213:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" >
<readHost host="slave2" url="jdbc:mysql://192.168.200.214:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8"
user="root" password="1234" />
</writeHost>
</dataHost>
具体的对应情况如下:
属性说明:
balance="1"
代表全部的 readHost 与 stand by writeHost 参与 select 语句的负载均衡,简单的说,当双主双从模式(M1->S1,M2->S2,并且 M1 与 M2 互为主备),正常情况下,M2,S1,S2 都参与 select 语句的负载均衡
writeType
0 : 写操作都转发到第1台writeHost, writeHost1挂了, 会切换到writeHost2上;
1 : 所有的写操作都随机地发送到配置的writeHost上 ;
switchType
-1 : 不自动切换
1 : 自动切换,当第1台writeHost宕机后,会不会自动切换到writeHost2上
②server.xml
配置root用户也可以访问到逻辑库 ITCAST_RW2。
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST,ITCAST_RW2</property>
<!-- 表级 DML 权限设置 -->
<!--
<privileges check="true">
<schema name="DB01" dml="0110" >
<table name="TB_ORDER" dml="1110"></table>
</schema>
</privileges>
-->
</user>
(2)测试
登录MyCat,测试查询及更新操作,判定是否能够进行读写分离,以及读写分离的策略是否正确。
当主库挂掉一个之后,是否能够自动切换。