SpringBoot 如何使用sharding jdbc进行分库分表

网友投稿 660 2022-08-25


SpringBoot 如何使用sharding jdbc进行分库分表

目录基于4.0版本,Springboot2.1在pom里确保有如下引用里面我profiles.active了另一个之后手工把表都建好写个测试代码需要注意一个坑

基于4.0版本,Springboot2.1

之前写过一篇使用sharding-jdbc进行分库分表的文章,不过当时的版本还比较早,现在已经不能用了。这一篇是基于最新版来写的。

新版已经变成了shardingsphere了,https://shardingsphere.apache.org/。

有点不同的是,这一篇,我们是采用多数据源,仅对一个数据源进行分表。也就是说在网上那些jpa多数据源的配置,用sharding jdbc一样能完成。

也就是说我们有两个库,一个库是正常使用,另一个库其中的一个表进行分表。

老套路,我们还是使用Springboot进行集成,

在pom里确保有如下引用

4.0.0-RC1

org.apache.shardingsphere

sharding-jdbc-spring-boot-starter

${sharding-sphere.version}

org.apache.shardingsphere

sharding-core-common

${sharding-sphere.version}

org.springframework.boot

spring-boot-starter-data-jpa

spring:

application:

name: t3cc

profiles:

active: sharding-databases-tables

# datasource:

# primary:

# NlMnLrW jdbc-url: jdbc:mysql://${MYSQL_HOST:localhost}:${MYSQL_PORT:3306}/${DB_NAME:dmp_t3cc}?useUnicode=true&characterEncoding=UTF8&serverTimezone=Hongkong

# username: ${MYSQL_USER:root}

# password: ${MYSQL_PASS:root}

# secondary:

# jdbc-url: jdbc:mysql://xxxxxxxxxxxxx/xxxxxx?useUnicode=true&characterEncoding=UTF8&serverTimezone=Hongkong

# username: xxxxx

# password: xxxxxxx

jpa:

database: mysql

database-platform: org.hibernate.dialect.MySQL5InnoDBDialect #不加这句则默认为myisam引擎

hibernate:

ddl-auto: none

naming:

physical-strategy: org.springframework.boot.orm.jpa.hibernate.SpringPhysicalNamingStrategy

open-in-view: true

properties:

enable_lazy_load_no_trans: true

show-sql: true

yml里还是老套路,大家注意,我把之前的多数据源的配置给注释掉了,改成使用sharding来完成多数据源。

里面我profiles.active了另一个

sharding-databases-tables.yml

db:

one: primary

two: secondary

spring:

shardingsphere:

datasource:

names: ${db.one},${db.two}

primary:

type: com.zaxxer.hikari.HikariDataSource

jdbc-url: jdbc:mysql://${MYSQL_HOST:localhost}:${MYSQL_PORT:3306}/${DB_NAME:dmp_t3cc}?useUnicode=true&characterEncoding=UTF8&serverTimezone=Hongkong

username: ${MYSQL_USER:root}

password: ${MYSQL_USER:root}

max-active: 16

secondary:

type: com.zaxxer.hikari.HikariDataSource

jdbc-url: jdbc:mysql://xxxxxxx:3306/t3cc?useUnicode=true&characterEncoding=UTF8&serverTimezone=Hongkong

username: xxx

password: xxxxxx

max-active: 16

sharding:

tables:

pt_call_info:

actual-data-nodes: ${db.one}.pt_call_info_$->{1..14}

table-strategy:

inline:

sharding-column: today

algorithm-expression: pt_call_info_$->{today}

key-generator:

column: id

type: SNOWFLAKE

pre_cc_project:

actual-data-noNlMnLrWdes: ${db.two}.pre_cc_project

pre_cc_biztrack:

actual-data-nodes: ${db.two}.pre_cc_biztrack

可以看到datasource里,定义了2个数据源,names=primary,secondary,这个名字随便起。之后分别对每个数据源配置了type、url等基本信息。

在sharding里,我针对要被分表的pt_call_info表做了配置,分为14个表pt_call_info_1到pt_call_info_14,分表的原则是根据today这个字段,today为1就分到pt_call_info_1这个表。这也是我这个数据源,唯一要做配置的表。

另外,secondary这个数据源里,也有两个表,但我不想分表,只是当成普通的数据源进行操作。所以,我只是单独列出来他们的表名,并指定actual-data-nodes为第二个数据源的表名。这里是必须要列出来所有表的,无论是否需要分表,不然对表操作时,会报错找不到表。所以需要手工指定。

配完这个yml就ok了,别的什么都不用配了。也不需要像之前的多数据源时,像如下的配置都不用了。不需要指定model和repository的包位置什么的。

当yml配置好后,就可以把两个数据源的model和Repository放在任意的包下,不影响。

无论是对哪个表进行分表,都还是正常定义这个entity就行了。譬如下面就是我用来分表的model,就是个普通的entity。

之后手工把表都建好

然后就可以像平时一样操作这个model类了。

@RunWith(SpringRunner.class)

@SpringBootTest

public class T3ccApplicationTests {

@Resource

private ProjectManager projectManager;

@Resource

private PtCallInfoManager ptCallInfoManager;

@Test

public void contextLoads() {

List preCcProjectList = projectManager.findAll();

System.out.println(preCcProjectList.size());

for (int i = 1; i <= 14; i++) {

PtCallInfo ptCallInfo = new PtCallInfo();

ptCallInfo.setId((Long) new SnowflakeShardingKeyGenerator().generateKey());

ptCallInfo.setToday(i);

ptCallInfoManager.add(ptCallInfo);

}

}

}

写个测试代码

分别从第二个数据源取值,从第一个数据源插入值,查看分表情况。

注意,id是使用特定的算法生成的,避免分表后的主键冲突。

运行后,可以看到分表成功。

需要注意一个坑

不要使用jpa的saveAll功能,在sharding-jdbc中,用单条去添加,如果你用了saveAll,则会失败,插入错误的数据。


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:python面向对象编程——pip(Python面向对象编程)
下一篇:python面向对象编程——异常(python关于程序的异常处理)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~