检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
的首选数据库。 MySQL默认端口为3306,但是管理员可以根据需要将其更改为其他端口。MySQL支持多种存储引擎,包括InnoDB、MyISAM、MEMORY等,每个存储引擎都有其自己的优缺点,可以根据需要进行选择。 创建MySQL连接 登录新版ROMA Connect控制台。
源端字段a1映射到目标端字段b1,源端字段a2映射到目标端字段b2。 完成Mapping信息配置后,若需要配置异常数据存储、任务完成后执行,请前往配置异常数据存储(可选)、配置任务完成后执行(可选);否则可直接单击“保存”,完成数据集成任务的配置。 MRS Hive分区字段映射配置说明
修改设备配置 概述 设备信息和设备的规则信息为非资产数据,在导入集成资产后需要重新配置。可通过设备导入和规则导入功能,批量恢复或新建设备和规则信息。 前提条件 已完成集成资产的导入,确保设备和规则所属的集成应用和产品已成功导入。 操作步骤 (可选)准备设备列表和规则列表文件。 从
Topic主题 日志要推送的目标Kafka Topic名称。 Key 填写消息的Key值,表示消息存储在Kafka的指定分区,可以当成有序消息队列使用。如果Key为空,则消息分布式存储在不同的消息分区。 失败重试配置 日志推送到Kafka失败后的重试配置。 重试次数:失败后的重试次数,范围为0-5次。
导入导出Topic 概述 ROMA Connect支持导入导出消息集成的Topic,可以把Topic以文件形式导出到本地,也可以把本地的Topic文件导入ROMA Connect,实现Topic的批量迁移。 前提条件 导入Topic前,请确保Topic所属的集成应用已创建,否则请提前创建集成应用。
导入导出设备 概述 ROMA Connect支持导入导出设备,可以把设备以文件形式导出到本地,也可以把本地的设备文件导入ROMA Connect,实现设备信息的批量迁移。 前提条件 导入设备前,请确保设备所属的集成应用已创建,否则请提前创建集成应用。 导入设备前,请确保设备所属的产品已创建,否则请提前创建产品。
导入导出规则 概述 ROMA Connect支持导入导出规则,可以把规则以文件形式导出到本地,也可以把本地的规则文件导入ROMA Connect,实现规则引擎信息的批量迁移。 前提条件 导入规则前,请确保规则所属的集成应用已创建,否则请提前创建集成应用。 导入规则前,请确保规则所属的产品已创建,否则请提前创建产品。
导入导出产品 概述 ROMA Connect支持导入导出产品,可以把产品以文件形式导出到本地,也可以把本地的产品文件导入ROMA Connect,实现产品信息的批量迁移。 前提条件 导入产品前,请确保产品所属的集成应用已创建,否则请提前创建集成应用。 导入产品前,请检查导入产品的
排序方式 asc/desc。 sort_key 排序字段。 display_name 实例名、status状态、pvc_quantity 存储容量、created_time 创建时间、stack_id 技术栈。 表2 创建IDE实例 参数 说明 org_id 租户ID(对应华为云账号的domainId)。
Key:API所授权凭据的Key。根据实际情况填写。 Secret:API所授权凭据的Secret。根据实际情况填写。 认证使用的AK和SK硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全;本示例以AK和SK保存在环境变量中为例,运行本示例前请先在
password. kafka.rest.password=sasl_user_passwd_demo 编辑log4j.properties 修改日志存储目录: log.directory=D://workspace/logs 运行示例工程,查看消息生产与消费样例。 消息生成与消费的Main方法在RestMain
创建数据集成任务(组合任务) 创建数据集成任务(编排任务) 自定义数据源 ROMA Connect支持常见的数据源类型,如关系型数据库、大数据存储、半结构化存储、消息系统等。如果ROMA Connect支持的数据源类型无法满足您的数据集成场景,您可以自行开发一个数据源读写插件,通过标准的RESTful接口与ROMA
指从源端获取到的JSON格式数据中,元数据集上层公共字段的路径。此处不设置。 数据类型 选择从MQS数据源获取的数据格式类型,需要与MQS实际存储的数据格式一致。存储到MQS的设备数据为JSON格式,此处选择“JSON”。 消费偏移设置 选择“最新”,即集成最新获取的消息数据。 元数据 指从源
故障时数据依然可用,Topic的副本数越多,可靠性越高。为简单起见,此处使用默认值“3”。 老化时间(小时) 超过老化时间后,Topic中存储的消息将会被删除。为简单起见,此处使用默认值“72”。 同步复制 客户端向Topic生产消息时,是否把消息复制给所有副本,然后才向消息客户端返回响应。为简单起见,此处不启用。
Base64Utils类说明 路径 com.roma.apic.livedata.common.v1.Base64Utils 说明 提供Base64Utils编码和解码功能。 使用示例 Base64编码示例: importClass(com.roma.apic.livedata.common
Topic主题 日志要推送的目标Kafka Topic名称。 Key 填写消息的Key值,表示消息存储在Kafka的指定分区,可以当成有序消息队列使用。如果Key为空,则消息分布式存储在不同的消息分区。 失败重试分配 日志推送到Kafka失败后的重试配置。 重试次数:失败后的重试次数,范围为0-5次。
导入Topic 功能介绍 导入Topic。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/mqs/instances/{
部署Filebeat和ELK 部署Filebeat 登录SHUBAO组件所在节点,切换root用户。 执行以下命令对filebeat.yml文件进行授权。 cd /filebeat sudo chown root filebeat.yml 执行以下命令启动Filebeat。 docker-compose
导出API 功能介绍 导出分组下API的定义信息,导出文件内容符合swagger标准规范。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{pro
导出自定义后端API 功能介绍 导出自定义后端API,导出文件内容符合swagger标准规范。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{p