检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为API绑定签名密钥。在绑定签名密钥后,APIC到后端服务的请求增加签名信息,后端服务收到请求后计算签名信息,验证计算后的签名信息与APIC的签名信息是否一致。 使用HTTPS对请求进行加密。使用此方法前,需要确保已有相应的SSL证书。 父主题: 服务集成
参见创建数据集成任务。 请谨慎修改您的任务配置信息,避免目标端出现脏数据或者数据集成不完整,特别是修改源端与目标端信息,会导致数据集成方案有变化。 查看任务信息 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“数据集成
选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写MongoDB的连接地址和端口号,格式为:IP:PORT。 如果MongoDB有多个副本集,可单击“添加地址”填写多个连接地址。 用户名 填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 认证源 填写用于接入认
产品规格。 在ROMA Connect实例上创建与原Kafka相同配置的Topic,包括Topic名称、副本数、分区数、消息老化时间,以及是否同步复制和落盘等。 方案一:先迁生产,再迁消费 方案介绍 本方案中,先将生产消息的业务迁移到ROMA Connect,原Kafka不会有新
MRS Kafka。第三方平台(比如DataArts Studio)可以通过订阅Kafka或MRS Kafka获取消息,并根据实际需要选择是否执行数据抽取任务。 本章节介绍任务执行完成后,如何配置消息发送,如果不需要发送消息可不配置。 前提条件 已经在对应的应用下创建Kafka和MRS
文件中添加新的设备信息。 设备导入文件中表头的名称和顺序固定不能更改,表头名称请参考设备导入文件说明。 确认导入文件是否从老版本实例中导出:打开导入文件,查看是否存在“Base64:”开头的字段值。如果没有“Base64:”开头的字段值,则说明是老版本实例导出的文件。 如果是老版
文件中添加新的产品信息。 产品导入文件中表头的名称和顺序固定不能更改,表头名称请参考产品导入文件说明。 确认导入文件是否从老版本实例中导出:打开导入文件,查看是否存在“Base64:”开头的字段值。如果没有“Base64:”开头的字段值,则说明是老版本实例导出的文件。 如果是老版
不同数据源所支持的数据集成模式有所不同,具体请参考表1。 是否解析 选择是否透传数据。透传,即透明传输(pass-through),指的是将传输的内容由源端传输到目标端,不对数据内容做任何改变。 是:不会透传数据。 否:则会透传数据。 使用QuartZ Cron表达式 选择是否使用QuartZ Cron表达式方式配置。
/v2/{project_id}/apic/instances/{instance_id}/vpc-channels/{vpc_channel_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方式请参见API参考的“附录 > 获取项目ID”章节。 instance_id
String 目标端表字段是否唯一。 - 0 (唯一) - 1 (不唯一) 表5 Flag 参数 是否必选 参数类型 描述 flag 否 Boolean 是否为文本,默认值为false。 - true (是) - false (否) 表6 Column 参数 是否必选 参数类型 描述 field_name
Connect源端数据字段到目标端数据字段的映射规则,把获取到的源端数据转换成写入目标端的数据。 配置Mapping信息 在创建任务页面中配置Mapping信息,有自动配置和手动配置两种方式。 源端与目标端字段名请勿使用对应数据库的关键字,否则可能导致任务运行异常。 若目标端数据类型为MRS Hive时,如果要配置分区字段写入,请参见MRS
面向特定租户提供业务服务的专用Region。 可用区(AZ,Availability Zone):一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。
您可以通过云监控服务监控资源的使用情况,评估当前配置是否过高。例如:CPU、内存、带宽等资源的利用率。也可以根据成本分析阶段的分析结果识别成本偏高的资源,然后采取针对性的优化措施。 计费模式优化 不同类型的业务对资源使用周期有不同的要求,为每一类业务确定合适的计费模式,灵活组合以达到最优效果。
"******" } 可能原因 用户的API所属IAM认证,Token解析失败。 解决办法 检查获取Token的方法,Token是否正确。 检查获取Token的环境与调用的环境是否一致。 Incorrect IAM authentication information: Get secretKey
serializer=org.apache.kafka.common.serialization.StringSerializer #producer可以用来缓存数据的内存大小 buffer.memory=33554432 #重试次数 retries=0 #######################
选择“API”。 数据源名称 选择步骤二:接入数据源中所配置的API数据源。 是否需要分页 为简单起见,此处不开启。 是否增量迁移 为简单起见,此处不开启。 请求参数 API数据源无请求参数,此处不设置。 是否解析 为简单起见,此处选择“否”。 配置目标端MQS数据源信息。 图2 目标端配置信息
String 是否新增Mapping,默认为false。 表3 KeyValuePair 参数 是否必选 参数类型 描述 keys 否 String 属性名称。 value 否 String 属性值。 表4 TargetDatasourceConfig 参数 是否必选 参数类型 描述
表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 member_groups
another route. 子服务更新路由失败。 请检查路由策略是否正确,以及子服务是否正常。 400 ROMA.13011 The dictionary does not exist. 字典不存在。 检查访问的字典信息是否正确。 400 ROMA.13012 The dictionary
API定义覆盖 当导入的自定义后端与已有的自定义后端定义冲突时,是否使用导入的自定义后端覆盖已有的自定义后端。 扩展定义覆盖 当导入的自定义后端中定义的扩展信息(如流控策略、访问控制策略等)与ROMA Connect中已有的扩展信息冲突时,是否使用导入的信息覆盖已有信息。 勾选:使用导入文件中定义的扩展信息覆盖掉系统已有信息。