项目核心功能简述:
在此之前最好先看下notes、plan目录下的txt文件
本项目是一个自己臆想出需求(当然,大部分以课程设计文档需求为主)的大学快递代拿服务系统,
后端使用了springboot,mybatis-plus,redis(含lua),rocketmq等进行功能开发实现。
除此之外也整合了nacos,sentinel实现了简单的微服务
至于前端,本人前端水平有限,只能使用老一套的jq,bootstrap实现
参考我的博客
- springboot作为项目使用的基础建设框架
- mybatis-plus作为crud核心(为什么不用tk?因为mybatis-plus的使用更为简单,尤其是乐观锁、逻辑删除等)
- spring security+oauth2使用rsa加密实现认证中心(我这里没有使用io.jsonwebtoken,实际上应该使用,nacos的源码也有使用jjwt,我没使用只是为了更好的熟悉security的部分源码)
- redis除了用作基本缓存以外,还是程序实现自动分配配送员的核心(详细看plan目录下的编写计划),简单概括下就是zset+lua实现区域按权重分配配送员
- rocketmq则是用作订单超时自动取消、用户支付后发送分配配送员的事务消息,用户评价后发送分数校准的事务消息
- nacos作为注册中心服务发现
- sentinel作为服务熔断/限流降级
- 实现了配送员签到/加班功能,能统计连签天数
- 也实现了不同会员下单时打折的功能
- 也有整合swagger(layui),访问地址是 ip:port + context-path + /docs.html,例如localhost:40200/order/docs.html或http://localhost:40300/docs.html,如果提示Access token expired请清除cookie
- 启动express-order之前要启动express-ucenter,
- 因为初始化配送员权重的代码写到order去了,order需要远程调用ucenter。
- 代码还可能出现大改
- 2019/11/22日之前rocketmq的两阶段提交还没学透,所以在这之前写的rocketmq事务处理方式是错的
- 账号到数据库看,密码不是 mimajiushi 就是 123
- express-auth 暂时没实现注册,登录页面 http://localhost:40400/page/index
- 项目启动需要nacos是启动的,nacos的ip改成自己的, sentinel暂时可有可无
- 项目中的反馈功能还未实现,因为只是简单的crud(包括某些查询)没什么新知识,所以暂时放着不管
- 本项目偏向于个人的未知领域探索实现(绝对不是因为偷懒,笑),比如分布式事务如何保证最终一致性等,所以对个别功能定了计划但并没有实现,
比如:百度地图的区域可视化,收获地址管理等(以前的作品都实现过的功能我就不再实现了)
- 部份表可能显得比较肿,主要原因还是时间有限,不想重复过多无意义的dao代码
- 我前端比较垃圾
- 授权粒度只细化到角色级别,白话就是角色即权限,这么做一方面本项目没有前后分离也没有实现前后分离的动态路由,所以没必要细化到各角色权限也能实现该有的功能
- 一些开源组件实现可能还存在比较细节的错误
-
一个大坑就是rocketmq,我是现学现用的,曾因为理论不完善而导致代码多次出现大改,
1.1. 主要坑有两个,一个两阶段提交如何确保事务最终一致性(其实就是这学期nosql的理论实践)
1.2. 还有就是消息可能会重复发送,要保证业务更改操作前查询的的幂等性 -
还有一个就是redis要主要的点,lua脚本虽然能保证原子性,但因为redis是单线程io多路复用模型, 所以在执行lua的时候,会阻塞住当前执行lua脚本的redis节点的所有其它读写请求,直到上一个lua脚本执行完成。
注意!!!
上面的的阻塞是指线程处于阻塞状态,并不是指lua产生阻塞时再运行其它命令会阻塞,如果上一个lua还在运行,
那么再执行其它任何读写命令都会出现(error) BUSY Redis is busy running a script. You can only call SCRIPT KILL or SHUTDOWN NOSAVE
这也就意味着,lua脚本必须不允许出现死锁、且不能是执行时间长的脚本(如果是执行时间比较长的脚本,应该限流+完善容错重试机制)。还有就是redis的lua脚本特性所衍生出来的长连接/任务超时问题:
如果lua脚本因某种原因导致长时间阻塞,那么就有可能导致分配配送员消息消费失败重试/长连接导致连接丢失
然后重试的消息不断重试还是失败,最终消息积压爆表,可能导致服务雪崩/长连接过多导致新用户无法再连接
对于长连接的解决我自然是用rocketmq解决,毕竟假设在海量数据的情况下,完整的插入事务流程肯定比发送一条事务消息更耗时
至于失败消息积压方面解决的方案就有很多,包括sentinel限流、rocketmq限制消费的线程池等
最近要考试,除了课程设计可能漏掉的功能以外,停止更新