1.大数据量重一个系统同步到另一个系统,在数据量过大的情况下,需要全量覆盖或增量更新,代码按照之前那种逻辑写的话就会出现脏数据的问题。

1.1:无需验证重复【全量覆盖】

第一次代码:
在代码的逻辑里面,我直接再serviceimpl里面写了,先删除后插入的操作

for循环{
delete(数据库老数据);
insert(新数据);
}
---出现的问题:前端超时,后端代码运行也会超时

第二次代码重构:
这次把插入的方法加了异步注解

for循环{
delete(数据库老数据);
this.insert(新数据);
}
@Async
insert(新数据){
}
--出现的问题:删除方法运行的时候,插入方法被多次调用,
--导致数据库数据没删除完,insert方法还在一直执行,导致数据库出现大量脏数据。
--这里如果把delete和insert放在通过一个异步方法的话,会出现数据库事务死锁

第三次代码重构:
从ctroller开始就调用2个service,执行2个事务,先删除,后插入

ctroller{
service.delete(条件);
service.insert(条件);
}
--解决了脏数据的问题
--解决了单个事务出现死锁的问题
Logo

永洪科技,致力于打造全球领先的数据技术厂商,具备从数据应用方案咨询、BI、AIGC智能分析、数字孪生、数据资产、数据治理、数据实施的端到端大数据价值服务能力。

更多推荐