接口幂等性
文章目录
- 一、什么是幂等性
- 二、哪些情况需要防止
- 三、什么情况下需要幂等
- 四、幂等性解决方案
- 4.1 token 机制
- 4.2 各种锁机制
- 4.3 各种唯一约束
- 4.4 防重表
- 4.5 全局请求唯一 id
一、什么是幂等性
接口幂等性就是用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用;比如说支付场景,用户购买了商品支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额返发现多扣钱了,流水记录也变成了两条…这就没有保证接口的幂等性。
二、哪些情况需要防止
- 用户多次点击按钮
- 用户页面回退再次提交
- 微服务互相调用,由于网络问题导致请求失败,
feign
触发重试机制 - 其他业务情况
三、什么情况下需要幂等
以SQL
为例,有些操作是天然幂等的。如select *from table wher id=?
,无论执行多少次都不会改变状态,是天然的幂等;update tab1 set col1=1 where col2=2
,无论执行成功多少次状态都是一致的,也是幂等操作;delete from user where userid=1
,多次操作,结果一样,具备幂等性;insert into user(userid,name) values(1, a')
,如userid
为唯一主键,即重复操作上面的业务,只会插入一条用户数据,具备幂等性。
update tab1 set col1=col1+1 where col2=2
每次执行的结果都会发生变化,不是幂等的;insert into user(userid,name) values(1,'a')
如userid
不是主键,可以重复,那上面业务多次操作,数据都会新增多条,不具备幂等性。
四、幂等性解决方案
4.1 token 机制
- 服务端提供了发送
token
的接口。我们在分析业务的时候,哪些业务是存在幂等问题的,就必须在执行业务前,先去获取token
,服务器会token
保存到redis
中。 - 然后调用业务接口请求时,把
token
携带过去,一般放在请求头部。 - 服务器判断
token
是否存在redis
中,存在表示第一次请求,然后删除token
,继续执行业务 - 如果判断
token
不存在redis
中,就表示是重复操作,直接返回重复标记给client
,这样就保证了业务代码,不被重复执行。
token
机制存在的问题:
① 先删除token
还是后删除token
- 先删除可能导致,业务确实没有执行,重试还带上之前
token
,由于防重设计导致,请求还是不能执行; - 后删除可能导致业务处理成功但是服务闪断出现超时,没有删除
token
,别人继续重试,导致业务被执行两遍; - 我们最好设计为先删除
token
,如果业务调用失败,就重新获取token
再次请求。
② token
的获取、比较和删除必须是原子性
redis.get(token)
、token.equals
、redis.del(token)
如果这两个操作不具有原子性,可能导致高并发下都get
到同样的数据,判断都成功,业务继续并发执行;可以使用
lua
脚本完成redis
一系列操作,命令如下:if redis.call(‘get’,KEYS[1])==ARGV[1] then return redis.call(‘del’,KEYS[1]) else return 0 end
4.2 各种锁机制
① 数据库悲观锁
select * from xxxx where id = 1 for update;
悲观锁使用时一般伴随事务一起使用,数据锁定时间可能会很长,需要根据实际情况选用。另外要注意的是id
字段一定是主键或者唯一索引,不然可能造成锁表的结果,处理起来会非常麻烦。
② 数据库乐观锁
这种方法适合在更新的场景中:
select update t_goods set count = count - 1,
version = version + 1 where good_id = 2 and version = 1;
根据version
版本也就是在操作库存前先获取当前商品的version
版本号,然后操作的时候带上此version
号。我们梳理下,我们第一次操作库存时,得到version
为1,调用库存服务version
变成了2;但返回给订单服务出现了间题,订单服务又一次发起调用库存服务,当订单服务传如的version
还是1,再执行上面的sql
语句时,就不会执行;因为version
已经变为2了,where
条件就不成立。这样就保证了不管调用几次,只会真正的处理一次。
乐观锁主要使用于处理读多写少的问题。
③ 业务层分布式锁
如果多个机器可能在同一时间同时处理相同的数据,比如多台机器定时任务都拿到了相同数据处理,我们就可以加分布式锁,锁定此数据,处理完成后释放锁。获取到锁的必须先判断这个数据是否被处理过。
4.3 各种唯一约束
① 数据库唯一约束
插入数据应该按照唯一索引进行插入,比如订单号,相同的订单就不可能有两条记录插入。我们在数据库层面防止重复。
这个机制是利用了数据库的主键唯一约束的特性,解决了insert
场景时幂等问题。但主键的要求不是自增的主键,这样就需要业务生成全局唯一的主键。
如果是分库分表场景下,路由规则要保证相同请求下,落地在同一个数据库和同一表中,要不然数据库主键约束就不起效果了,因为是不同的数据库和表主键不相关。
② Redis set 防重
很多数据需要处理,只能被处理一次,比却我们可以计算数据的MD5
将其放入redis
的set
类型中,每次处理数据先看这个MD5
是否已经存在,存在就不处理。
4.4 防重表
比如使用订单号orderNo
做为去重表的唯一索引,把唯一索引插入去重表,再进行业务操作,且他们在同一个事务中。这个保证了重复请求时,因为去重表有唯一约束,导致请求失败,避免了幂等问题。这里要注意的是,去重表和业务表应该在同一库中,这样就保证了在同一个事务,即使业务操作失败了,也会把去重表的数据回滚。这个很好的保证了数据一致性。
4.5 全局请求唯一 id
调用接口时生成一个唯一id
,redis
将数据保存到集合中(去重),存在即处理过。
可以使用Nginx
设置每一个请求的唯一id
:proxy_set_header X-Request-ld $request_id;
还没有评论,来说两句吧...