Skip to content

cfg.properties

全局运行时参数配置,文件内分为五个部分:同步类型、源端数据库配置、Kafka消息中间件配置、目标端文件配置和同步至数据库的配置(需要根据实际进行配置)。

数据库密码加密(若使用web启动界面化配置的则不需要加密,直接在界面输入明文密码):

首先通过执行Encryption.jar对数据库密码进行加密

[root@xxx]# java -jar Encryption.jar SYSDBA U1lTREJB

SYSDBA为数据库明文密码,U1lTREJB为加密后的密码。

配置参数说明
#type in (db,kafka,file)-
source.type=db源端类型
aim.type=db目标端类型
#binlog source config源端数据库配置信息
source.log.db=db待同步库名
source.db.usr=usr_sod源端用户名
source.db.pwd=password源端用户名密码(通过Encryption.jar加密后的密码)
source.db.port=12345源端端口号
source.log.suber.name=sync2同步使用的订阅名
source.log.filter.T=null同步过滤表达式,过滤指定表。格式:模式名:表名,多个表之间以&符号分割。例:s1:t1&s2:t2。(均使用英文字符)
source.log.filter.V=null同步过滤表达式,过滤指定视图
source.log.filter.P=null同步过滤表达式,过滤指定存储过程
source.log.filter.F=null同步过滤表达式,过滤指定存储函数
source.log.forward=true与source.log.filter配合使用,若为true,则同步source.log.filter中所配置的表。若为false,则不同步source.log.filter中所配置的表。默认为true
source.log.partion=8数据库日志分区
source.log.fetch.size=20同步每次拉取日志大小
source.log.ips=127.0.0.1单事务最大行数
source.commit_rows=1000同步过滤表达式,过滤指定存储函数
ddl.support=false是否进行 DDL 同步
redo.offset.server=true是否启用数据库端订阅者偏移量
reconnect.num=-1数据库重连次数,为-1则为无限重连
disable.binlog=falsetrue目标端binlog不记录同步的数据,false为记录
isMax.binlog=falsefalse从binlog原始位置开始读取,true从最新的文件号的0偏移量开始读取
# kafka source config源端kafka配置
source.kafka.parath=8每个topic的分区数
source.topic=test.d2.tclob\\test.u2.t1需要同步的topic名,以”\\”分隔
case.sensitive=true用于同步至kafka时创建topic的大小写控制。若为true,则创建的topic名大小写按照源端库实际大小写创建。若为false,则创建的topic名全为小写
#to kafka写入Kafka消息中间件配置
zk.connect=192.168.2.225:2181zookeeper ip
topic.partition=8Kafka每个topic的分区数
repeat.pos.kafka=true是否依赖Kafka数据进行断点续传过滤重复
case.sensitive=true用于同步至kafka时创建topic的大小写控制。若为true,则创建的topic名大小写按照源端库实际大小写创建。若为false,则创建的topic名全为小写
#to db写入数据库
writer.thd.num=8同步时写入线程数(建议和source.log.partion 相同)
writer.db=xugu目标库类型(xugu,oracle,mysql)
writer.schema=SYSDBA指定目标端模式名(严格区分大小写)
writer.parathd.num=1入库并发数
# to HttpEI信息
url.ei=针对天境EI,可不填
task.id=针对天境EI,可不填
task.name=针对天境EI,可不填