云服务器内容精选

  • 支持同步的DDL 表1 支持同步的DDL相关操作 DDL名称 SQL样例 创建表 CREATE TABLE tbl_name (c_id int not null, c_d_id integer not null, primary key (c_id)); 删除表 DROP TABLE tbl_name; 重命名表 RENAME TABLE tbl_name to new_tbl_name; ALTER TABLE tbl_name RENAME TO new_tbl_name; 清空表数据 TRUNCATE TABLE tbl_name; 修改表注释 ALTER TABLE tbl_name COMMENT='test'; 添加列(非主键列) ALTER TABLE tbl_name ADD c_varchar varchar(2000) AFTER c_tinytext; 删除列(非主键列) ALTER TABLE tbl_name DROP c_vchar; 修改列类型、列顺序(非主键列) ALTER TABLE tbl_name CHANGE c_vchar c_vchar varchar(2000) default 'test' AFTER c_tinytext; 注意: 不支持修改列名及默认值, DDL语句列名和默认值必须为旧值。 ALTER TABLE tbl_name MODIFY c_vchar varchar(2100) default 'test' AFTER c_tinytext; 注意: 不支持修改默认值,DDL语句默认值必须为旧值。 父主题: 数据同步
  • 目标端配置操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 单击“创建事件流”。 配置事件目标。 单击“事件目标”,右侧弹出“事件目标”弹窗。 目标服务选择“分布式消息服务 Kafka版”。 设置事件目标参数。 图2 分布式消息服务 Kafka版 表2 分布式消息服务 Kafka版参数说明 参数名称 说明 目标连接 选择目标连接。如果还未创建目标连接,请先创建分布式消息服务Kafka版目标连接。 Topic 选择Topic。先选目标连接以加载Topic选项。 消息Key配置 关闭 不启用消息Key。 开启 变量:从CloudEvents标准事件中获取变量值,将变量值作为Key值。 常量:将指定的常量作为key值。若选择常量,所有消息将发送至同一分区。 规则配置 类型 变量:data.value 如果需要了解更多转换类型的信息,请参考事件内容转换。 消息推送 批量推送 配置是否开启批量推送,批量推送可帮您批量聚合多个事件。 批量推送条数 推送间隔 开启批量推送可见,每次批量推送的最大聚合条数,默认值100,输入值范围1~10000。 开启批量推送可见,输入批量推送间隔,默认值1,输入值范围0~15,单位:秒。 事件目标kafka不支持自定义证书。 表3 批量推送示例 批量推送条数 推送间隔 实际发送效果 100条 1s 每隔1s批量推送100条消息 200条 5s 每隔5s批量推送500条消息 配置完成后,单击“确定”。 单击“事件流列表”操作列的“启用”,待状态列显示为“运行中”则代表整个链路创建成功。
  • 源端配置操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 单击“创建事件流”。 在弹窗中输入事件流名称和描述,单击“确定”,完成事件流名称和描述信息输入。 配置Kafka事件源。 单击“事件源”,右侧弹出“事件源”弹窗。 事件提供方选择“分布式消息服务 Kafka版”。 设置事件源参数。 图1 事件源-Kafka 表1 配置参数说明 参数名称 说明 实例 选择Kafka实例。 Topic 选择Topic。 消费组 输入消费组。 并发数 输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。 SASL认证机制 当Kafka实例开启SASL SSL时可见,选择SASL认证机制。 PLAIN:一种简单的用户名密码校验机制。 SC RAM -SHA-512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 SASL证书地址 当Kafka实例开启SASL SSL时可见,输入SASL证书地址。获取地址请参考如何获取分布式消息服务Kafka实例的SASL证书地址。 说明: 必须使用zip压缩包,压缩包内的文件数量不超过两个,压缩包和文件大小均不可超过1M; 压缩包里证书的名称必须是固定的:client.jks。 SASL证书密钥 当Kafka实例开启SASL SSL时可见,输入SASL证书密钥。 用户名 当Kafka实例开启SASL SSL时可见,输入实例用户名。 用户密码 当Kafka实例开启SASL SSL时可见,输入实例用户密码。 单击“保存”,完成配置事件源。
  • 前提条件 GaussDB (for MySQL)实例需要按照表1进行参数设置。 表1 参数说明 参数名称 参数值 修改方式 default_authentication_plugin mysql_native_password 修改实例参数 binlog_expire_logs_seconds 86400 说明: binlog的保留时间建议大于1天:60(秒)*60(分钟)*24(小时)=86400,防止由于binlog时间设置过短,导致增量复制失败。 修改实例参数 log_bin 说明: GaussDB(for MySQL)内核版本小于2.0.45.230900时,使用该参数。 ON GaussDB(for MySQL)服务如何开启binlog? rds_global_sql_log_bin 说明: GaussDB(for MySQL)内核版本大于或等于2.0.45.230900时,使用该参数。 ON GaussDB(for MySQL)服务如何开启binlog? binlog_format ROW 通过“SHOW VARIABLES;”命令查看参数的值,如需修改,请联系客服人员修改。 binlog_row_image FULL 通过“SHOW VARIABLES;”命令查看参数的值,如需修改,请联系客服人员修改。 log_bin_use_v1_row_events OFF 通过“SHOW VARIABLES;”命令查看参数的值,如需修改,请联系客服人员修改。 GaussDB(for MySQL)实例已创建数据库和表。
  • 基于首条流创建其它流 上述相当于配置了第一个OA单据同步到ERP的流,默认的配置是销售订单的配置,利用该模板配置不同的单据,方法如下: 复制"E-cologyOA的单据同步到ERP_23-9-0"同步到OA的流 根据需要配置的单据名称,修改流名称,做到见名知意,比如现在同步供应商 修改全局配置 点击"下一步" 根据当前同步的具体单据,修改全局配置 全局配置参数说明 objType: B1单据对象名,供应商是BusinessPartners,销售订单是Orders LineName:B1单据子表名,供应商同步没有子表,不填,销售订单需要同步单据行,填DocumentLines 点击"下一步" 点击"更新" 开启流 父主题: OA数据同步到ERP流创建并复用
  • 基于首条流创建其它流 上述相当于配置了第一个ERP基础数据同步到OA的流,默认的配置是物料主数据的配置,利用该模板配置不同的单据,方法如下: 复制该流创建一条新流 流名称根据同步单据名称进行修改,便于识别当前流同步的单据 配置全局配置,选择配置管理,点击"下一步" 修改全局配置: 全局配置各个字段说明如下: 必填配置: objType: B1单据接口对象名,比如物料是Items,客户是BusinessPartners Key: B1单据接口主键字段,比如物料是/ItemCode, 客户是/CardCode(注意"/"不能少) 根据情况可能需要调整的配置: Cyc: 同步周期,表示多长时间同步一次,单位为min,默认值1min operator: OA系统分配的操作人,除开切换OA环境,不需要修改 password:OA系统分配的系统密码,除开切换OA环境,不需要修改 systemid:OA系统分配的系统ID,除开切换OA环境,不需要修改 pagesize:单次同步的数据条数,格式odata.maxpagesize=数值, 默认值20 select:B1接口所需返回字段,默认为空,表示全选 U_ISSYN:B1接口中表示单据是否同步成功的字段名,默认值U_ISSYN,建议都使用默认值 修改完成后,点击下一步,更新 配置查询B1单据的字段 编辑流 选择"查询单据列表"节点,设置 在扩展配置里面如果已经有就选择,如果没有,就创建一个新的,不要使用其它流使用的配置 创建新的配置,先修改配置名称,名称做到见名知意 在"输出参数"中,添加需要同步的B1字段,添加在"Items"下面 添加配置完成后,需要点击配置名称并应用此配置 点击选择"遍历集合元素",重新选择引用 点"×"去掉原来的引用 重新选择该引用 创建"数据转换"节点配置 新建一个"客户数据转换"配置 配置"输入参数", 配置B1字段和OA字段的对应关系 保存配置并应用 重新智能映射 保存流,并开启 父主题: ERP基础数据同步到OA流创建并复用