doc add seata mysql

This commit is contained in:
dashan 2023-01-02 02:16:21 +08:00
parent a7a5aef547
commit 3a5b589cf1
59 changed files with 1555 additions and 8 deletions

28
mysql/Java-MySQL.md Normal file
View File

@ -0,0 +1,28 @@
## JAVA-MySQL
### mysql8.x版本的数据库在连接的时候报错 java.sql.SQLNonTransientConnectionException: Public Key Retrieval is not allowed
#### 说明
[官方doc](https://mysqlconnector.net/connection-options/)
![image-20230101223712667](assets/image-20230101223712667.png)
**原文:**
If the user account uses `sha256_password` authentication, the password must be protected during transmission; TLS is the preferred mechanism for this, but if it is not available then RSA public key encryption will be used. To specify the servers RSA public key, use the `ServerRSAPublicKeyFile` connection string setting, or set `AllowPublicKeyRetrieval=True` to allow the client to automatically request the public key from the server. Note that `AllowPublicKeyRetrieval=True` could allow a malicious proxy to perform a MITM attack to get the plaintext password, so it is `False` by default and must be explicitly enabled.
**翻译**
如果用户账号使用sha256_password认证密码在传输过程中必须进行保护 TLS 是对此的首选机制,但如果它不可用,则将使用 RSA 公钥加密。要指定服务器的 RSA 公钥,请使用 ServerRSAPublicKeyFile 连接字符串设置,或设置 AllowPublicKeyRetrieval=True 以允许客户端自动从服务器请求公钥。请注意AllowPublicKeyRetrieval=True 可能允许恶意代理执行 MITM 攻击以获取明文密码,因此默认情况下为 False必须明确启用。
#### 解决方法
只要在url的后边加上allowPublicKeyRetrieval=true即可
```yaml
url: jdbc:mysql://10.8.0.18:3306/newerp?serverTimezone=UTC&useUnicode=true&charaterEncoding=utf8&autoReconnect=true&useAffectedRows=true
```

View File

@ -1,2 +1,119 @@
# MySql 技巧 # MySQL 技巧
## 查询未提交事务
```mysql
-- 从 information_schema.innodb_trx 表中查看当前未提交的事务
select trx_state, trx_started, trx_mysql_thread_id, trx_query from information_schema.innodb_trx;
-- trx_mysql_thread_idMySQL的线程ID用于kill
kill 2199075;
```
![image-20230102015126933](assets/image-20230102015126933.png)
上图红色框中的字段是 线程id 可以通过 `kill 线程id`; 可以用来结束线程
## 查看进程列表 `show processlist;`
**show processlist; 显示前100条进程show full processlist; 显示全部进程**
通过kill id; 可以杀掉进程
![image-20230102015805769](assets/image-20230102015805769.png)
**字段详解**
| 参数 | 含义 |
| ------- | ------------------------------------------------------------ |
| Id | 用户登录 mysql 时,系统分配的 "connection_id",可以使用函数 connection_id() 查看 |
| User | 显示当前用户。如果不是 root这个命令就只显示用户权限范围的 sql 语句 |
| Host | 显示这个语句是从哪个 ip 的哪个端口上发的,可以用来跟踪出现问题语句的用户 |
| db | 显示这个进程目前连接的是哪个数据库 |
| Command | 显示当前连接的执行的命令一般取值为休眠sleep查询query连接connect等 |
| Time | 显示这个状态持续的时间,单位是秒 |
| State | 显示使用当前连接的 sql 语句的状态很重要的列。state 描述的是语句执行中的某一个状态。一个 sql 语句,以查询为例,可能需要经过 copying to tmp table、sorting result、sending data 等状态才可以完成 |
| Info | 显示这个 sql 语句,是判断问题语句的一个重要依据 |
**state字段参数字段分析**
| 参数 | 含义 |
| ------------------------------------------------- | ------------------------------------------------------------ |
| Checking table | 正在检查数据表(这是自动的)。 |
| Closing tables | 正在将表中修改的数据刷新到磁盘中,同时正在关闭已经用完的表。这是一个很快的操作,如果不是这样的话,就应该确认磁盘空间是否已经满了或者磁盘是否正处于重负中。 |
| Connect Out | 复制从服务器正在连接主服务器。 |
| Copying to tmp table on disk | 由于临时结果集大于 tmp_table_size正在将临时表从内存存储转为磁盘存储以此节省内存 |
| Creating tmp table | 正在创建临时表以存放部分查询结果。 |
| deleting from main table | |
| deleting from reference tables | 服务器正在执行多表删除中的第二部分,正在删除其他表的记录。 |
| Flushing tables | 正在执行 FLUSH TABLES等待其他线程关闭数据表。 |
| Killed | 发送了一个 kill 请求给某线程,那么这个线程将会检查 kill 标志位,同时会放弃下一个 kill 请求。MySQL 会在每次的主循环中检查 kill 标志位,不过有些情况下该线程可能会过一小段才能死掉。如果该线程程被其他线程锁住了,那么 kill 请求会在锁释放时马上生效。 |
| Locked | 被其他查询锁住了。 |
| Sending data | 正在处理 SELECT 查询的记录,同时正在把结果发送给客户端。 |
| Sorting for group | 正在为 GROUP BY 做排序。 |
| Sorting for order | 正在为 ORDER BY 做排序。 |
| Opening tables | 这个过程应该会很快,除非受到其他因素的干扰。例如,在执 ALTER TABLE 或 LOCK TABLE 语句行完以前,数据表无法被其他线程打开。 正尝试打开一个表。 |
| Removing duplicates | 正在执行一个 SELECT DISTINCT 方式的查询,但是 MySQL 无法在前一个阶段优化掉那些重复的记录。因此MySQL 需要再次去掉重复的记录,然后再把结果发送给客户端。 |
| Reopen table | 获得了对一个表的锁,但是必须在表结构修改之后才能获得这个锁。已经释放锁,关闭数据表,正尝试重新打开数据表。 |
| Repair by sorting | 修复指令正在排序以创建索引。 |
| Repair with keycache | 修复指令正在利用索引缓存一个一个地创建新索引。它会比 Repair by sorting 慢些。 |
| Searching rows for update | 正在讲符合条件的记录找出来以备更新。它必须在 UPDATE 要修改相关的记录之前就完成了。 |
| Sleeping | 正在等待客户端发送新请求. |
| System lock | 正在等待取得一个外部的系统锁。如果当前没有运行多个 mysqld 服务器同时请求同一个表,那么可以通过增加 skip-external-locking 参数来禁止外部系统锁。 |
| Upgrading lock | INSERT DELAYED 正在尝试取得一个锁表以插入新记录。 |
| Updating | 正在搜索匹配的记录,并且修改它们。 |
| User Lock | 正在等待 GET_LOCK()。 |
| Waiting for tables | 该线程得到通知数据表结构已经被修改了需要重新打开数据表以取得新的结构。然后为了能的重新打开数据表必须等到所有其他线程关闭这个表。以下几种情况下会产生这个通知FLUSH TABLES tbl_name, ALTER TABLE, RENAME TABLE, REPAIR TABLE, ANALYZE TABLE, 或 OPTIMIZE TABLE。 |
| waiting for handler insert | INSERT DELAYED 已经处理完了所有待处理的插入操作,正在等待新的请求。 |
| Waiting for net, reading from net, writing to net | 偶尔出现无妨 |
## 查看锁表的状态命令
```MYSQL
# 查看那些表锁到了
show open tables where in_use > 0;
# 查看进程号
show processlist;
# 删除进程
kill 1085850
#查询是否锁表
show open tables where in_use > 0;
show open tables;
# 锁定数据表,避免在备份过程中,表被更新
lock tables tbl_name read;
# 为表增加一个写锁定
lock tables tbl_name write;
# 解锁
unlock tables;
# 查看表的状态
show status like 'table%';
show status like 'innodb_row_lock%';
```
还有一些常用的命令。
```mysql
# 关闭所有打开的表,强制关闭所有正在使用的表
flush tables
#关闭所有打开的表并使用全局读锁锁定所有数据库的所有表
flush tables with read lock;
#如果一个会话中使用 lock tables tbl_name lock_type 语句对某表加了表锁,在该表锁未释放前,那么另外一个会话如果执行 flush tables 语句会被阻塞,执行 flush tables with read lock 也会被堵塞
show status like 'innodb_row_lock%';
show status like 'table%';
Table_locks_immediate #表示立即释放表锁数
Table_locks_waited #表示需要等待的表锁数
#Table_locks_immediate / Table_locks_waited > 5000最好采用 InnoDB 引擎,
#因为 InnoDB 是行锁而 MyISAM 是表锁,对于高并发写入的应用 InnoDB 效果会好些。
```

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.3 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 7.8 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 11 KiB

View File

@ -13,7 +13,7 @@
2、下载镜像 2、下载镜像
------ ------
``` ```shell
docker pull seataio/seata-server:1.4.2 docker pull seataio/seata-server:1.4.2
``` ```
@ -21,7 +21,7 @@ docker pull seataio/seata-server:1.4.2
3、启动容器 3、启动容器
------ ------
``` ```shell
docker run -d --name seata-server -p 8091:8091 seataio/seata-server:1.4.2 docker run -d --name seata-server -p 8091:8091 seataio/seata-server:1.4.2
``` ```
@ -29,7 +29,7 @@ docker run -d --name seata-server -p 8091:8091 seataio/seata-server:1.4.2
4、拷贝文件 4、拷贝文件
------ ------
``` ```shell
docker cp seata-server:/seata-server /docker-data/seata docker cp seata-server:/seata-server /docker-data/seata
``` ```
@ -39,7 +39,7 @@ docker cp seata-server:/seata-server /docker-data/seata
1修改配置文件 / docker-data/seata/resources/registry.conf改为 Nacos 信息。 1修改配置文件 / docker-data/seata/resources/registry.conf改为 Nacos 信息。
``` ```shell
registry { registry {
type = "nacos" type = "nacos"
@ -74,7 +74,7 @@ config {
2修改配置文件 / docker-data/seata/resources/file.conf改为 DB 信息。 2修改配置文件 / docker-data/seata/resources/file.conf改为 DB 信息。
``` ```shell
store { store {
mode = "db" mode = "db"
@ -108,7 +108,7 @@ store {
6、停掉旧容器 6、停掉旧容器
------- -------
``` ```shell
docker stop seata-server docker stop seata-server
docker rm seata-server docker rm seata-server
@ -117,7 +117,7 @@ docker rm seata-server
7、启动新容器 7、启动新容器
------- -------
``` ```shell
docker run -d \ docker run -d \
--restart always \ --restart always \
--name seata-server \ --name seata-server \

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 21 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 12 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 21 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.7 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 4.6 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 107 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 26 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 6.7 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 26 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 141 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 40 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 42 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.0 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 14 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 45 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 62 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 26 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 30 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 34 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 44 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 46 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 58 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 62 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 58 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 66 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 13 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 181 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 32 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 26 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 58 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 196 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 88 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 51 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 151 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 7.2 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.0 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.6 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 6.8 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 6.4 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 68 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 59 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 52 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 99 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 63 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 31 KiB

View File

@ -0,0 +1,447 @@
# seata的部署和集成
# 一、部署Seata的tc-server
## 1.下载
首先我们要下载seata-server包地址在[http](http://seata.io/zh-cn/blog/download.html)[://seata.io/zh-cn/blog/download](http://seata.io/zh-cn/blog/download.html)[.](http://seata.io/zh-cn/blog/download.html)[html](http://seata.io/zh-cn/blog/download.html)
当然,课前资料也准备好了:
![image-20210622202357640](assets/image-20210622202357640.png)
## 2.解压
在非中文目录解压缩这个zip包其目录结构如下
![image-20210622202515014](assets/image-20210622202515014.png)
## 3.修改配置
修改conf目录下的registry.conf文件
![image-20210622202622874](assets/image-20210622202622874.png)
内容如下:
```properties
registry {
# tc服务的注册中心类这里选择nacos也可以是eureka、zookeeper等
type = "nacos"
nacos {
# seata tc 服务注册到 nacos的服务名称可以自定义
application = "seata-tc-server"
serverAddr = "127.0.0.1:8848"
group = "DEFAULT_GROUP"
namespace = ""
cluster = "SH"
username = "nacos"
password = "nacos"
}
}
config {
# 读取tc服务端的配置文件的方式这里是从nacos配置中心读取这样如果tc是集群可以共享配置
type = "nacos"
# 配置nacos地址等信息
nacos {
serverAddr = "127.0.0.1:8848"
namespace = ""
group = "SEATA_GROUP"
username = "nacos"
password = "nacos"
dataId = "seataServer.properties"
}
}
```
## 4.在nacos添加配置
特别注意为了让tc服务的集群可以共享配置我们选择了nacos作为统一配置中心。因此服务端配置文件seataServer.properties文件需要在nacos中配好。
格式如下:
![image-20210622203609227](assets/image-20210622203609227.png)
配置内容如下:
```properties
# 数据存储方式db代表数据库
store.mode=db
store.db.datasource=druid
store.db.dbType=mysql
store.db.driverClassName=com.mysql.jdbc.Driver
store.db.url=jdbc:mysql://127.0.0.1:3306/seata?useUnicode=true&rewriteBatchedStatements=true
store.db.user=root
store.db.password=123
store.db.minConn=5
store.db.maxConn=30
store.db.globalTable=global_table
store.db.branchTable=branch_table
store.db.queryLimit=100
store.db.lockTable=lock_table
store.db.maxWait=5000
# 事务、日志等配置
server.recovery.committingRetryPeriod=1000
server.recovery.asynCommittingRetryPeriod=1000
server.recovery.rollbackingRetryPeriod=1000
server.recovery.timeoutRetryPeriod=1000
server.maxCommitRetryTimeout=-1
server.maxRollbackRetryTimeout=-1
server.rollbackRetryTimeoutUnlockEnable=false
server.undo.logSaveDays=7
server.undo.logDeletePeriod=86400000
# 客户端与服务端传输方式
transport.serialization=seata
transport.compressor=none
# 关闭metrics功能提高性能
metrics.enabled=false
metrics.registryType=compact
metrics.exporterList=prometheus
metrics.exporterPrometheusPort=9898
```
==其中的数据库地址、用户名、密码都需要修改成你自己的数据库信息。==
## 5.创建数据库表
特别注意tc服务在管理分布式事务时需要记录事务相关数据到数据库中你需要提前创建好这些表。
新建一个名为seata的数据库运行课前资料提供的sql文件
![image-20210622204145159](assets/image-20210622204145159.png)
这些表主要记录全局事务、分支事务、全局锁信息:
```mysql
SET NAMES utf8mb4;
SET FOREIGN_KEY_CHECKS = 0;
-- ----------------------------
-- 分支事务表
-- ----------------------------
DROP TABLE IF EXISTS `branch_table`;
CREATE TABLE `branch_table` (
`branch_id` bigint(20) NOT NULL,
`xid` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
`transaction_id` bigint(20) NULL DEFAULT NULL,
`resource_group_id` varchar(32) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`resource_id` varchar(256) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`branch_type` varchar(8) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`status` tinyint(4) NULL DEFAULT NULL,
`client_id` varchar(64) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`application_data` varchar(2000) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`gmt_create` datetime(6) NULL DEFAULT NULL,
`gmt_modified` datetime(6) NULL DEFAULT NULL,
PRIMARY KEY (`branch_id`) USING BTREE,
INDEX `idx_xid`(`xid`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Compact;
-- ----------------------------
-- 全局事务表
-- ----------------------------
DROP TABLE IF EXISTS `global_table`;
CREATE TABLE `global_table` (
`xid` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
`transaction_id` bigint(20) NULL DEFAULT NULL,
`status` tinyint(4) NOT NULL,
`application_id` varchar(32) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`transaction_service_group` varchar(32) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`transaction_name` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`timeout` int(11) NULL DEFAULT NULL,
`begin_time` bigint(20) NULL DEFAULT NULL,
`application_data` varchar(2000) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`gmt_create` datetime NULL DEFAULT NULL,
`gmt_modified` datetime NULL DEFAULT NULL,
PRIMARY KEY (`xid`) USING BTREE,
INDEX `idx_gmt_modified_status`(`gmt_modified`, `status`) USING BTREE,
INDEX `idx_transaction_id`(`transaction_id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Compact;
SET FOREIGN_KEY_CHECKS = 1;
```
## 6.启动TC服务
进入bin目录运行其中的seata-server.bat即可
![image-20210622205427318](assets/image-20210622205427318.png)
启动成功后seata-server应该已经注册到nacos注册中心了。
打开浏览器访问nacos地址http://localhost:8848然后进入服务列表页面可以看到seata-tc-server的信息
![image-20210622205901450](assets/image-20210622205901450.png)
## 7.Docker
#### **第一步先启动一个seata容器并将配置文件复制到本地**
```shell
#运行seata
docker run -d --name seata-server -p 8091:8091 seataio/seata-server:1.4.2
#复制seata容器的配置文件到宿主机
docker cp seata-server:/seata-server /opt/app/data/seata/seata-server
#删除容器
docker rm -f seata-server
```
#### **第二步可以采用docker命令启动也可以使用docker-compose启动**
##### docker 命令启动
```shell
docker run -d --restart always --name seata-server -p 8091:8091 -v /opt/app/data/seata/seata-server:/seata-server -e SEATA_IP=10.0.0.101 -e SEATA_PORT=8091 seataio/seata-server:1.4.2
```
##### docker-compose 启动
创建docker-compose.yml文件 写入已下内容然后执行docker-compose up -d 启动容器
```yaml
version: '3'
services:
seata-tc-server:
container_name: seata-tc-server
image: seataio/seata-server:1.4.2 #镜像版本
ports:
- "8091:8091" #端口号
volumes: #数据卷挂在
- /opt/app/data/seata/seata-server:/seata-server #
environment: #指定ip端口号 云服务器不指定默认会是内网ip 外网无法访问
- SEATA_IP=10.0.0.101
- SEATA_PORT=8091
networks:
- XX
restart: always #自动重启
networks:
XX:
external: true
```
# 二、微服务集成seata
## 1.引入依赖
首先我们需要在微服务中引入seata依赖
```xml
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
<exclusions>
<!--版本较低1.3.0,因此排除-->
<exclusion>
<artifactId>seata-spring-boot-starter</artifactId>
<groupId>io.seata</groupId>
</exclusion>
</exclusions>
</dependency>
<!--seata starter 采用1.4.2版本-->
<dependency>
<groupId>io.seata</groupId>
<artifactId>seata-spring-boot-starter</artifactId>
<version>${seata.version}</version>
</dependency>
```
## 2.修改配置文件
需要修改application.yml文件添加一些配置
```yaml
seata:
registry: # TC服务注册中心的配置微服务根据这些信息去注册中心获取tc服务地址
# 参考tc服务自己的registry.conf中的配置
type: nacos
nacos: # tc
server-addr: 127.0.0.1:8848
namespace: ""
group: DEFAULT_GROUP
application: seata-tc-server # tc服务在nacos中的服务名称
cluster: SH
tx-service-group: seata-demo # 事务组根据这个获取tc服务的cluster名称
service:
vgroup-mapping: # 事务组与TC服务cluster的映射关系
seata-demo: SH
```
# 三、TC服务的高可用和异地容灾
## 1.模拟异地容灾的TC集群
计划启动两台seata的tc服务节点
| 节点名称 | ip地址 | 端口号 | 集群名称 |
| -------- | --------- | ------ | -------- |
| seata | 127.0.0.1 | 8091 | SH |
| seata2 | 127.0.0.1 | 8092 | HZ |
之前我们已经启动了一台seata服务端口是8091集群名为SH。
现在将seata目录复制一份起名为seata2
修改seata2/conf/registry.conf内容如下
```nginx
registry {
# tc服务的注册中心类这里选择nacos也可以是eureka、zookeeper等
type = "nacos"
nacos {
# seata tc 服务注册到 nacos的服务名称可以自定义
application = "seata-tc-server"
serverAddr = "127.0.0.1:8848"
group = "DEFAULT_GROUP"
namespace = ""
cluster = "HZ"
username = "nacos"
password = "nacos"
}
}
config {
# 读取tc服务端的配置文件的方式这里是从nacos配置中心读取这样如果tc是集群可以共享配置
type = "nacos"
# 配置nacos地址等信息
nacos {
serverAddr = "127.0.0.1:8848"
namespace = ""
group = "SEATA_GROUP"
username = "nacos"
password = "nacos"
dataId = "seataServer.properties"
}
}
```
进入seata2/bin目录然后运行命令
```powershell
seata-server.bat -p 8092
```
打开nacos控制台查看服务列表
![image-20210624151150840](assets/image-20210624151150840.png)
点进详情查看:
![image-20210624151221747](assets/image-20210624151221747.png)
## 2.将事务组映射配置到nacos
接下来我们需要将tx-service-group与cluster的映射关系都配置到nacos配置中心。
新建一个配置:
![image-20210624151507072](assets/image-20210624151507072.png)
配置的内容如下:
```properties
# 事务组映射关系
service.vgroupMapping.seata-demo=SH
service.enableDegrade=false
service.disableGlobalTransaction=false
# 与TC服务的通信配置
transport.type=TCP
transport.server=NIO
transport.heartbeat=true
transport.enableClientBatchSendRequest=false
transport.threadFactory.bossThreadPrefix=NettyBoss
transport.threadFactory.workerThreadPrefix=NettyServerNIOWorker
transport.threadFactory.serverExecutorThreadPrefix=NettyServerBizHandler
transport.threadFactory.shareBossWorker=false
transport.threadFactory.clientSelectorThreadPrefix=NettyClientSelector
transport.threadFactory.clientSelectorThreadSize=1
transport.threadFactory.clientWorkerThreadPrefix=NettyClientWorkerThread
transport.threadFactory.bossThreadSize=1
transport.threadFactory.workerThreadSize=default
transport.shutdown.wait=3
# RM配置
client.rm.asyncCommitBufferLimit=10000
client.rm.lock.retryInterval=10
client.rm.lock.retryTimes=30
client.rm.lock.retryPolicyBranchRollbackOnConflict=true
client.rm.reportRetryCount=5
client.rm.tableMetaCheckEnable=false
client.rm.tableMetaCheckerInterval=60000
client.rm.sqlParserType=druid
client.rm.reportSuccessEnable=false
client.rm.sagaBranchRegisterEnable=false
# TM配置
client.tm.commitRetryCount=5
client.tm.rollbackRetryCount=5
client.tm.defaultGlobalTransactionTimeout=60000
client.tm.degradeCheck=false
client.tm.degradeCheckAllowTimes=10
client.tm.degradeCheckPeriod=2000
# undo日志配置
client.undo.dataValidation=true
client.undo.logSerialization=jackson
client.undo.onlyCareUpdateColumns=true
client.undo.logTable=undo_log
client.undo.compress.enable=true
client.undo.compress.type=zip
client.undo.compress.threshold=64k
client.log.exceptionRate=100
```
## 3.微服务读取nacos配置
接下来需要修改每一个微服务的application.yml文件让微服务读取nacos中的client.properties文件
```yaml
seata:
config:
type: nacos
nacos:
server-addr: 127.0.0.1:8848
username: nacos
password: nacos
group: SEATA_GROUP
data-id: client.properties
```
重启微服务现在微服务到底是连接tc的SH集群还是tc的HZ集群都统一由nacos的client.properties来决定了。

View File

@ -0,0 +1,955 @@
# 分布式事务
# 0.学习目标
# 1.分布式事务问题
## 1.1.本地事务
本地事务,也就是传统的**单机事务**。在传统数据库事务中,必须要满足四个原则:
![image-20210724165045186](assets/image-20210724165045186.png)
## 1.2.分布式事务
**分布式事务**,就是指不是在单个服务或单个数据库架构下,产生的事务,例如:
- 跨数据源的分布式事务
- 跨服务的分布式事务
- 综合情况
在数据库水平拆分、服务垂直拆分之后,一个业务操作通常要跨多个数据库、服务才能完成。例如电商行业中比较常见的下单付款案例,包括下面几个行为:
- 创建新订单
- 扣减商品库存
- 从用户账户余额扣除金额
完成上面的操作需要访问三个不同的微服务和三个不同的数据库。
![image-20210724165338958](assets/image-20210724165338958.png)
订单的创建、库存的扣减、账户扣款在每一个服务和数据库内是一个本地事务可以保证ACID原则。
但是当我们把三件事情看做一个"业务",要满足保证“业务”的原子性,要么所有操作全部成功,要么全部失败,不允许出现部分成功部分失败的现象,这就是**分布式系统下的事务**了。
此时ACID难以满足这是分布式事务要解决的问题
## 1.3.演示分布式事务问题
我们通过一个案例来演示分布式事务的问题:
1**创建数据库名为seata_demo然后导入课前资料提供的SQL文件**
![image-20210724165634571](assets/image-20210724165634571.png)
2**导入课前资料提供的微服务:**
![image-20210724165709994](assets/image-20210724165709994.png)
微服务结构如下:
![image-20210724165729273](assets/image-20210724165729273.png)
其中:
seata-demo父工程负责管理项目依赖
- account-service账户服务负责管理用户的资金账户。提供扣减余额的接口
- storage-service库存服务负责管理商品库存。提供扣减库存的接口
- order-service订单服务负责管理订单。创建订单时需要调用account-service和storage-service
**3启动nacos、所有微服务**
**4测试下单功能发出Post请求**
请求如下:
```sh
curl --location --request POST 'http://localhost:8082/order?userId=user202103032042012&commodityCode=100202003032041&count=20&money=200'
```
如图:
![image-20210724170113404](assets/image-20210724170113404.png)
测试发现,当库存不足时,如果余额已经扣减,并不会回滚,出现了分布式事务问题。
# 2.理论基础
解决分布式事务问题,需要一些分布式系统的基础知识作为理论指导。
## 2.1.CAP定理
1998年加州大学的计算机科学家 Eric Brewer 提出,分布式系统有三个指标。
> - Consistency一致性
> - Availability可用性
> - Partition tolerance (分区容错性)
![image-20210724170517944](assets/image-20210724170517944.png)
它们的第一个字母分别是 C、A、P。
Eric Brewer 说,这三个指标不可能同时做到。这个结论就叫做 CAP 定理。
### 2.1.1.一致性
Consistency一致性用户访问分布式系统中的任意节点得到的数据必须一致。
比如现在包含两个节点,其中的初始数据是一致的:
![image-20210724170704694](assets/image-20210724170704694.png)
当我们修改其中一个节点的数据时,两者的数据产生了差异:
![image-20210724170735847](assets/image-20210724170735847.png)
要想保住一致性就必须实现node01 到 node02的数据 同步:
![image-20210724170834855](assets/image-20210724170834855.png)
### 2.1.2.可用性
Availability (可用性):用户访问集群中的任意健康节点,必须能得到响应,而不是超时或拒绝。
如图,有三个节点的集群,访问任何一个都可以及时得到响应:
![image-20210724170932072](assets/image-20210724170932072.png)
当有部分节点因为网络故障或其它原因无法访问时,代表节点不可用:
![image-20210724171007516](assets/image-20210724171007516.png)
### 2.1.3.分区容错
**Partition分区**:因为网络故障或其它原因导致分布式系统中的部分节点与其它节点失去连接,形成独立分区。
![image-20210724171041210](assets/image-20210724171041210.png)
**Tolerance容错**:在集群出现分区时,整个系统也要持续对外提供服务
### 2.1.4.矛盾
在分布式系统中系统间的网络不能100%保证健康一定会有故障的时候而服务有必须对外保证服务。因此Partition Tolerance不可避免。
当节点接收到新的数据变更时,就会出现问题了:
![image-20210724171546472](assets/image-20210724171546472.png)
如果此时要保证**一致性**,就必须等待网络恢复,完成数据同步后,整个集群才对外提供服务,服务处于阻塞状态,不可用。
如果此时要保证**可用性**就不能等待网络恢复那node01、node02与node03之间就会出现数据不一致。
也就是说在P一定会出现的情况下A和C之间只能实现一个。
## 2.2.BASE理论
BASE理论是对CAP的一种解决思路包含三个思想
- **Basically Available** **(基本可用)**:分布式系统在出现故障时,允许损失部分可用性,即保证核心可用。
- **Soft State软状态**在一定时间内,允许出现中间状态,比如临时的不一致状态。
- **Eventually Consistent最终一致性**:虽然无法保证强一致性,但是在软状态结束后,最终达到数据一致。
## 2.3.解决分布式事务的思路
分布式事务最大的问题是各个子事务的一致性问题因此可以借鉴CAP定理和BASE理论有两种解决思路
- AP模式各子事务分别执行和提交允许出现结果不一致然后采用弥补措施恢复数据即可实现最终一致。
- CP模式各个子事务执行后互相等待同时提交同时回滚达成强一致。但事务等待过程中处于弱可用状态。
但不管是哪一种模式,都需要在子系统事务之间互相通讯,协调事务状态,也就是需要一个**事务协调者(TC)**
![image-20210724172123567](assets/image-20210724172123567.png)
这里的子系统事务,称为**分支事务**;有关联的各个分支事务在一起称为**全局事务**。
# 3.初识Seata
Seata是 2019 年 1 月份蚂蚁金服和阿里巴巴共同开源的分布式事务解决方案。致力于提供高性能和简单易用的分布式事务服务,为用户打造一站式的分布式解决方案。
官网地址http://seata.io/,其中的文档、播客中提供了大量的使用说明、源码分析。
![image-20210724172225817](assets/image-20210724172225817.png)
## 3.1.Seata的架构
Seata事务管理中有三个重要的角色
- **TC (Transaction Coordinator) -** **事务协调者:**维护全局和分支事务的状态,协调全局事务提交或回滚。
- **TM (Transaction Manager) -** **事务管理器:**定义全局事务的范围、开始全局事务、提交或回滚全局事务。
- **RM (Resource Manager) -** **资源管理器:**管理分支事务处理的资源与TC交谈以注册分支事务和报告分支事务的状态并驱动分支事务提交或回滚。
整体的架构如图:
![image-20210724172326452](assets/image-20210724172326452.png)
Seata基于上述架构提供了四种不同的分布式事务解决方案
- XA模式强一致性分阶段事务模式牺牲了一定的可用性无业务侵入
- TCC模式最终一致的分阶段事务模式有业务侵入
- AT模式最终一致的分阶段事务模式无业务侵入也是Seata的默认模式
- SAGA模式长事务模式有业务侵入
无论哪种方案都离不开TC也就是事务的协调者。
## 3.2.部署TC服务
参考课前资料提供的文档《 seata的部署和集成.md 》:
![image-20210724172549013](assets/image-20210724172549013.png)
## 3.3.微服务集成Seata
我们以order-service为例来演示。
### 3.3.1.引入依赖
首先在order-service中引入依赖
```xml
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
<exclusions>
<!--版本较低1.3.0,因此排除-->
<exclusion>
<artifactId>seata-spring-boot-starter</artifactId>
<groupId>io.seata</groupId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>io.seata</groupId>
<artifactId>seata-spring-boot-starter</artifactId>
<!--seata starter 采用1.4.2版本-->
<version>${seata.version}</version>
</dependency>
```
### 3.3.2.配置TC地址
在order-service中的application.yml中配置TC服务信息通过注册中心nacos结合服务名称获取TC地址
```yaml
seata:
registry: # TC服务注册中心的配置微服务根据这些信息去注册中心获取tc服务地址
type: nacos # 注册中心类型 nacos
nacos:
server-addr: 127.0.0.1:8848 # nacos地址
namespace: "" # namespace默认为空
group: DEFAULT_GROUP # 分组默认是DEFAULT_GROUP
application: seata-tc-server # seata服务名称
username: nacos
password: nacos
tx-service-group: seata-demo # 事务组名称
service:
vgroup-mapping: # 事务组与cluster的映射关系
seata-demo: SH
```
微服务如何根据这些配置寻找TC的地址呢
我们知道注册到Nacos中的微服务确定一个具体实例需要四个信息
- namespace命名空间
- group分组
- application服务名
- cluster集群名
以上四个信息在刚才的yaml文件中都能找到
![image-20210724173654258](assets/image-20210724173654258.png)
namespace为空就是默认的public
结合起来TC服务的信息就是public@DEFAULT_GROUP@seata-tc-server@SH这样就能确定TC服务集群了。然后就可以去Nacos拉取对应的实例信息了。
### 3.3.3.其它服务
其它两个微服务也都参考order-service的步骤来做完全一样。
# 4.动手实践
下面我们就一起学习下Seata中的四种不同的事务模式。
## 4.1.XA模式
XA 规范 是 X/Open 组织定义的分布式事务处理DTPDistributed Transaction Processing标准XA 规范 描述了全局的TM与局部的RM之间的接口几乎所有主流的数据库都对 XA 规范 提供了支持。
### 4.1.1.两阶段提交
XA是规范目前主流数据库都实现了这种规范实现的原理都是基于两阶段提交。
正常情况:
![image-20210724174102768](assets/image-20210724174102768.png)
异常情况:
![image-20210724174234987](assets/image-20210724174234987.png)
一阶段:
- 事务协调者通知每个事物参与者执行本地事务
- 本地事务执行完成后报告事务执行状态给事务协调者,此时事务不提交,继续持有数据库锁
二阶段:
- 事务协调者基于一阶段的报告来判断下一步操作
- 如果一阶段都成功,则通知所有事务参与者,提交事务
- 如果一阶段任意一个参与者失败,则通知所有事务参与者回滚事务
### 4.1.2.Seata的XA模型
Seata对原始的XA模式做了简单的封装和改造以适应自己的事务模型基本架构如图
![image-20210724174424070](assets/image-20210724174424070.png)
RM一阶段的工作
① 注册分支事务到TC
② 执行分支业务sql但不提交
③ 报告执行状态到TC
TC二阶段的工作
- TC检测各分支事务执行状态
a.如果都成功通知所有RM提交事务
b.如果有失败通知所有RM回滚事务
RM二阶段的工作
- 接收TC指令提交或回滚事务
### 4.1.3.优缺点
XA模式的优点是什么
- 事务的强一致性满足ACID原则。
- 常用数据库都支持,实现简单,并且没有代码侵入
XA模式的缺点是什么
- 因为一阶段需要锁定数据库资源,等待二阶段结束才释放,性能较差
- 依赖关系型数据库实现事务
### 4.1.4.实现XA模式
Seata的starter已经完成了XA模式的自动装配实现非常简单步骤如下
1修改application.yml文件每个参与事务的微服务开启XA模式
```yaml
seata:
data-source-proxy-mode: XA
```
2给发起全局事务的入口方法添加@GlobalTransactional注解:
本例中是OrderServiceImpl中的create方法.
![image-20210724174859556](assets/image-20210724174859556.png)
3重启服务并测试
重启order-service再次测试发现无论怎样三个微服务都能成功回滚。
## 4.2.AT模式
AT模式同样是分阶段提交的事务模型不过缺弥补了XA模型中资源锁定周期过长的缺陷。
### 4.2.1.Seata的AT模型
基本流程图:
![image-20210724175327511](assets/image-20210724175327511.png)
阶段一RM的工作
- 注册分支事务
- 记录undo-log数据快照
- 执行业务sql并提交
- 报告事务状态
阶段二提交时RM的工作
- 删除undo-log即可
阶段二回滚时RM的工作
- 根据undo-log恢复数据到更新前
### 4.2.2.流程梳理
我们用一个真实的业务来梳理下AT模式的原理。
比如,现在又一个数据库表,记录用户余额:
| **id** | **money** |
| ------ | --------- |
| 1 | 100 |
其中一个分支业务要执行的SQL为
```sql
update tb_account set money = money - 10 where id = 1
```
AT模式下当前分支事务执行流程如下
一阶段:
1TM发起并注册全局事务到TC
2TM调用分支事务
3分支事务准备执行业务SQL
4RM拦截业务SQL根据where条件查询原始数据形成快照。
```json
{
"id": 1, "money": 100
}
```
5RM执行业务SQL提交本地事务释放数据库锁。此时 `money = 90`
6RM报告本地事务状态给TC
二阶段:
1TM通知TC事务结束
2TC检查分支事务状态
a如果都成功则立即删除快照
b如果有分支事务失败需要回滚。读取快照数据`{"id": 1, "money": 100}`将快照恢复到数据库。此时数据库再次恢复为100
流程图:
![image-20210724180722921](assets/image-20210724180722921.png)
### 4.2.3.AT与XA的区别
简述AT模式与XA模式最大的区别是什么
- XA模式一阶段不提交事务锁定资源AT模式一阶段直接提交不锁定资源。
- XA模式依赖数据库机制实现回滚AT模式利用数据快照实现数据回滚。
- XA模式强一致AT模式最终一致
### 4.2.4.脏写问题
在多线程并发访问AT模式的分布式事务时有可能出现脏写问题如图
![image-20210724181541234](assets/image-20210724181541234.png)
解决思路就是引入了全局锁的概念。在释放DB锁之前先拿到全局锁。避免同一时刻有另外一个事务来操作当前数据。
![image-20210724181843029](assets/image-20210724181843029.png)
**但是如果有未被seata管理的事务会导致数据回滚异常因为没有被seata管理的事务不会获取全局锁如果此事物在seata事务在提交事务之后(1.3) 回滚之前(2.1)执行,就会因为seata事务回滚快照和当前数据对不上从而无法回滚想要解决这个问题就是把涉及到此事物数据表的方法也加上@GlobalTransactional**
### 4.2.5.优缺点
AT模式的优点
- 一阶段完成直接提交事务,释放数据库资源,性能比较好
- 利用全局锁实现读写隔离
- 没有代码侵入,框架自动完成回滚和提交
AT模式的缺点
- 两阶段之间属于软状态,属于最终一致
- 框架的快照功能会影响性能但比XA模式要好很多
- 如果有未被seata管理的事务会导致数据回滚异常
### 4.2.6.实现AT模式
AT模式中的快照生成、回滚等动作都是由框架自动完成没有任何代码侵入因此实现非常简单。
只不过AT模式需要一个表来记录全局锁、另一张表来记录数据快照undo_log。
1导入数据库表记录全局锁
导入课前资料提供的Sql文件seata-at.sql其中lock_table导入到TC服务关联的数据库undo_log表导入到微服务关联的数据库
![image-20210724182217272](assets/image-20210724182217272.png)
2修改application.yml文件将事务模式修改为AT模式即可
```yaml
seata:
data-source-proxy-mode: AT # 默认就是AT
```
3重启服务并测试
## 4.3.TCC模式
TCC模式与AT模式非常相似每阶段都是独立事务不同的是TCC通过人工编码来实现数据恢复。需要实现三个方法
- Try资源的检测和预留
- Confirm完成资源操作业务要求 Try 成功 Confirm 一定要能成功。
- Cancel预留资源释放可以理解为try的反向操作。
### 4.3.1.流程分析
举例一个扣减用户余额的业务。假设账户A原来余额是100需要余额扣减30元。
- **阶段一( Try **检查余额是否充足如果充足则冻结金额增加30元可用余额扣除30
初识余额:
![image-20210724182424907](assets/image-20210724182424907.png)
余额充足,可以冻结:
![image-20210724182457951](assets/image-20210724182457951.png)
此时,总金额 = 冻结金额 + 可用金额数量依然是100不变。事务直接提交无需等待其它事务。
- **阶段二Confirm)**假如要提交Confirm则冻结金额扣减30
确认可以提交,不过之前可用金额已经扣减过了,这里只要清除冻结金额就好了:
![image-20210724182706011](assets/image-20210724182706011.png)
此时,总金额 = 冻结金额 + 可用金额 = 0 + 70 = 70元
- **阶段二(Canncel)**如果要回滚Cancel则冻结金额扣减30可用余额增加30
需要回滚,那么就要释放冻结金额,恢复可用金额:
![image-20210724182810734](assets/image-20210724182810734.png)
### 4.3.2.Seata的TCC模型
Seata中的TCC模型依然延续之前的事务架构如图
![image-20210724182937713](assets/image-20210724182937713.png)
### 4.3.3.优缺点
TCC模式的每个阶段是做什么的
- Try资源检查和预留
- Confirm业务执行和提交
- Cancel预留资源的释放
TCC的优点是什么
- 一阶段完成直接提交事务,释放数据库资源,性能好
- 相比AT模型无需生成快照无需使用全局锁性能最强
- 不依赖数据库事务,而是依赖补偿操作,可以用于非事务型数据库
TCC的缺点是什么
- 有代码侵入需要人为编写try、Confirm和Cancel接口太麻烦
- 软状态,事务是最终一致
- 需要考虑Confirm和Cancel的失败情况做好幂等处理
### 4.3.4.事务悬挂和空回滚
#### 1空回滚
当某分支事务的try阶段**阻塞**时可能导致全局事务超时而触发二阶段的cancel操作。在未执行try操作时先执行了cancel操作这时cancel不能做回滚就是**空回滚**。
如图:
![image-20210724183426891](assets/image-20210724183426891.png)
执行cancel操作时应当判断try是否已经执行如果尚未执行则应该空回滚。
#### 2业务悬挂
对于已经空回滚的业务之前被阻塞的try操作恢复继续执行try就永远不可能confirm或cancel ,事务一直处于中间状态,这就是**业务悬挂**。
执行try操作时应当判断cancel是否已经执行过了如果已经执行应当阻止空回滚后的try操作避免悬挂
### 4.3.5.实现TCC模式
解决空回滚和业务悬挂问题必须要记录当前事务状态是在try、还是cancel
#### 1思路分析
这里我们定义一张表:
```sql
DROP TABLE IF EXISTS `account_freeze_tbl`;
CREATE TABLE `account_freeze_tbl` (
`xid` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
`user_id` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
`freeze_money` int(11) UNSIGNED NULL DEFAULT 0,
`state` int(1) NULL DEFAULT NULL COMMENT '事务状态0:try1:confirm2:cancel',
PRIMARY KEY (`xid`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = COMPACT;
```
其中:
- xid是全局事务id
- freeze_money用来记录用户冻结金额
- state用来记录事务状态
那此时,我们的业务开怎么做呢?
- Try业务
- 记录冻结金额和事务状态到account_freeze表
- 扣减account表可用金额
- Confirm业务
- 根据xid删除account_freeze表的冻结记录
- Cancel业务
- 修改account_freeze表冻结金额为0state为2
- 修改account表恢复可用金额
- 如何判断是否空回滚?
- cancel业务中根据xid查询account_freeze如果为null则说明try还没做需要空回滚
- 如何避免业务悬挂?
- try业务中根据xid查询account_freeze 如果已经存在则证明Cancel已经执行拒绝执行try业务
接下来我们改造account-service利用TCC实现余额扣减功能。
#### 2声明TCC接口
TCC的Try、Confirm、Cancel方法都需要在接口中基于注解来声明
我们在account-service项目中的`cn.itcast.account.service`包中新建一个接口声明TCC三个接口
```java
package cn.itcast.account.service;
import io.seata.rm.tcc.api.BusinessActionContext;
import io.seata.rm.tcc.api.BusinessActionContextParameter;
import io.seata.rm.tcc.api.LocalTCC;
import io.seata.rm.tcc.api.TwoPhaseBusinessAction;
@LocalTCC
public interface AccountTCCService {
@TwoPhaseBusinessAction(name = "deduct", commitMethod = "confirm", rollbackMethod = "cancel")
void deduct(@BusinessActionContextParameter(paramName = "userId") String userId,
@BusinessActionContextParameter(paramName = "money")int money);
boolean confirm(BusinessActionContext ctx);
boolean cancel(BusinessActionContext ctx);
}
```
#### 3编写实现类
在account-service服务中的`cn.itcast.account.service.impl`包下新建一个类实现TCC业务
```java
package cn.itcast.account.service.impl;
import cn.itcast.account.entity.AccountFreeze;
import cn.itcast.account.mapper.AccountFreezeMapper;
import cn.itcast.account.mapper.AccountMapper;
import cn.itcast.account.service.AccountTCCService;
import io.seata.core.context.RootContext;
import io.seata.rm.tcc.api.BusinessActionContext;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import org.springframework.transaction.annotation.Transactional;
@Service
@Slf4j
public class AccountTCCServiceImpl implements AccountTCCService {
@Autowired
private AccountMapper accountMapper;
@Autowired
private AccountFreezeMapper freezeMapper;
@Override
@Transactional
public void deduct(String userId, int money) {
// 0.获取事务id
String xid = RootContext.getXID();
// 1.扣减可用余额
accountMapper.deduct(userId, money);
// 2.记录冻结金额,事务状态
AccountFreeze freeze = new AccountFreeze();
freeze.setUserId(userId);
freeze.setFreezeMoney(money);
freeze.setState(AccountFreeze.State.TRY);
freeze.setXid(xid);
freezeMapper.insert(freeze);
}
@Override
public boolean confirm(BusinessActionContext ctx) {
// 1.获取事务id
String xid = ctx.getXid();
// 2.根据id删除冻结记录
int count = freezeMapper.deleteById(xid);
return count == 1;
}
@Override
public boolean cancel(BusinessActionContext ctx) {
// 0.查询冻结记录
String xid = ctx.getXid();
AccountFreeze freeze = freezeMapper.selectById(xid);
// 1.恢复可用余额
accountMapper.refund(freeze.getUserId(), freeze.getFreezeMoney());
// 2.将冻结金额清零状态改为CANCEL
freeze.setFreezeMoney(0);
freeze.setState(AccountFreeze.State.CANCEL);
int count = freezeMapper.updateById(freeze);
return count == 1;
}
}
```
## 4.4.SAGA模式
Saga 模式是 Seata 即将开源的长事务解决方案,将由蚂蚁金服主要贡献。
其理论基础是Hector & Kenneth 在1987年发表的论文[Sagas](https://microservices.io/patterns/data/saga.html)。
Seata官网对于Saga的指南https://seata.io/zh-cn/docs/user/saga.html
### 4.4.1.原理
在 Saga 模式下,分布式事务内有多个参与者,每一个参与者都是一个冲正补偿服务,需要用户根据业务场景实现其正向操作和逆向回滚操作。
分布式事务执行过程中,依次执行各参与者的正向操作,如果所有正向操作均执行成功,那么分布式事务提交。如果任何一个正向操作执行失败,那么分布式事务会去退回去执行前面各参与者的逆向回滚操作,回滚已提交的参与者,使分布式事务回到初始状态。
![image-20210724184846396](assets/image-20210724184846396.png)
Saga也分为两个阶段
- 一阶段:直接提交本地事务
- 二阶段:成功则什么都不做;失败则通过编写补偿业务来回滚
### 4.4.2.优缺点
优点:
- 事务参与者可以基于事件驱动实现异步调用,吞吐高
- 一阶段直接提交事务,无锁,性能好
- 不用编写TCC中的三个阶段实现简单
缺点:
- 软状态持续时间不确定,时效性差
- 没有锁,没有事务隔离,会有脏写
## 4.5.四种模式对比
我们从以下几个方面来对比四种实现:
- 一致性:能否保证事务的一致性?强一致还是最终一致?
- 隔离性:事务之间的隔离性如何?
- 代码侵入:是否需要对业务代码改造?
- 性能:有无性能损耗?
- 场景:常见的业务场景
如图:
![image-20210724185021819](assets/image-20210724185021819.png)
## 4.6.混搭使用
可以采用 **XA+TCC** 或者**AT+TCC**这种方式
**XA**模式和**AT**模式都可以作为主要使用的模式,而**TCC**模式因为较为复杂并且代码侵入性更高所以并不适合作为主要的分布式事务解决方法,可以仅用于补充对性能要求较高的接口
个人更建议使用 **XA+TCC**组合,虽然**XA**性能较差,但是隔离性更好,而**AT**还要预防那些不被seata管理的事务对于性能有要求的部分刚好可以使用**TCC**进行优化;
# 5.高可用
Seata的TC服务作为分布式事务核心一定要保证集群的高可用性。
## 5.1.高可用架构模型
搭建TC服务集群非常简单启动多个TC服务注册到nacos即可。
但集群并不能确保100%安全,万一集群所在机房故障怎么办?所以如果要求较高,一般都会做异地多机房容灾。
比如一个TC集群在上海另一个TC集群在杭州
![image-20210724185240957](assets/image-20210724185240957.png)
微服务基于事务组tx-service-group)与TC集群的映射关系来查找当前应该使用哪个TC集群。当SH集群故障时只需要将vgroup-mapping中的映射关系改成HZ。则所有微服务就会切换到HZ的TC集群了。