检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请检查数据源IP与FDI是否在同一个VPC内,若不在请先创建对等连接。 如何创建VPC对等连接请参考VPC对等连接。 请检查数据源服务器端防火墙是否开放连接端口。 请检查数据源服务器端IP白名单限制是否添加FDI数据面IP。 请检查数据源IP是否为客户自有的数据中心或私有网,如果是请先建立VPN连接。
能有效地对设备进行管理,设备的产品物模型中定义了可向设备下发的命令,应用服务器可通过LINK直接向单个设备下发命令,以实现对设备的远程控制。命令下发具体配置如下: 选择物模型服务:物模型服务来源于设备所属产品的物模型。如果没有可用的物模型服务,可单击右侧“创建物模型服务”创建。 是否同步:选择是否同步命令下发后
选择日志流所在的日志组。 如果没有可选的日志组,单击“查看日志组”,跳转到云日志服务管理控制台,并创建一个日志组,具体操作请参考创建日志组。 日志流 选择API调用日志要存储的日志流。 如果没有可选的日志流,单击“查看日志流”,跳转到云日志服务管理控制台,并创建一个日志流,具体操作请参考创建日志流。
填写DataArts Studio云服务的域名地址。 项目ID 填写DataArts Studio云服务实例的projectId。 实例ID 填写DataArts Studio云服务实例的instanceId。 部署区域 填写DataArts Studio云服务实例的部署region。 登录方式
数据源管理 ROMA Connect支持的数据源 接入API数据源 接入ActiveMQ数据源 接入ArtemisMQ数据源 接入DB2数据源 接入DIS数据源 接入DWS数据源 接入DM数据源 接入Gauss100数据源 接入FTP数据源 接入HL7数据源 接入HANA数据源 接入HIVE数据源
请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 total
发布+订阅:表示支持对Topic发布消息和订阅消息。 发布:表示仅支持对Topic发布消息。 订阅:表示仅支持对Topic订阅消息。 分区数 设置Topic的分区数,合理设置分区数量,可以提升消息生产与消费的并发性能。 分区数设置为1时,消费消息时可按照先入先出的顺序进行消费。 副本数
接入数据源 概述 在创建数据API之前,您需要先接入数据源,确保可以正常从数据源读取数据。根据数据源类型的不同,数据源的接入配置有所差异。 前提条件 在接入数据源前,请确保ROMA Connect实例与您的数据源所在网络互通。 若ROMA Connect实例与数据源在相同VPC内时,可直接访问数据源。
请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 id
数据源 数据源连接测试失败排查操作 MRS Hive数据源测试连接失败 FTP数据源测试连接失败 OBS数据源测试连接失败 Kafka数据源连接失败
仅当“数据源方向”选择“源端”时需要配置。 选择是否开启白名单,允许同步数据到白名单中的源端HL7服务器。 白名单 仅当“数据源方向”选择“源端”且“是否开启白名单”选择“是”时需要配置。 填写允许同步数据到源端HL7的服务器地址。 连接地址 仅当“数据源方向”选择“目标端”时需要配置。 填写HL7的访问IP地址和端口号。
Topic Topic即消息主题,是消息队列的一种发布与订阅消息的模型,消息的生产、消费及管理围绕着消息主题进行。生产者向消息主题发布消息,多个消费者订阅该消息主题的消息,生产者与消费者彼此并无直接关系。 产品 产品是某一类具有相同能力或特征的设备合集。每个设备都有一个归属的产品,通过定义产品来确定设备所具备的功能属性。
据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 连接地址 填写数据库的连接IP地址。 端口 填写数据库的端口。 目录 对应SFTP服务器文件目录地址 用户名 数据库的登录用户名。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。
选择RabbitMQ中交换器将消息转发到新队列的路由方式。 Direct:若消息的路由关键字与队列完全匹配,则消息会转发到队列。 Topic:若消息的路由关键字与队列模糊匹配,则消息会转发到队列。 Fanout:所有消息都会转发到队列。 Headers:若消息的Headers属性与队列完全匹配,则消息会转发到队列。
Connect实例的“MQS SASL_SSL”已开启时需要配置。 填写“Topic名称”中Topic所属集成应用的Secret。 分布式消息服务Kafka 连接地址 选择分布式消息服务 Kafka的连接地址。 Topic名称 选择数据要转发到的Topic名称。 用户名 仅当ROMA Connect实例的“MQS
接入DWS数据源 概述 ABM支持把DWS(数据仓库服务)作为一种数据源类型,并用于模型采集。在使用DWS数据源前,您需要先接入数据源。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“应用业务模型ABM
partition 是 Integer 分区。 message_offset 是 Number 消息偏移量。 consumer_key 否 String 应用Key。在该消息头中添加一个consumer_key的消息头。 响应参数 状态码: 200 表5 响应Body参数 参数 参数类型 描述 topic
查询消息 功能介绍 查询消息的偏移量和消息内容。 先根据时间戳查询消息的偏移量,再根据偏移量查询消息内容。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /
ROMA Connect数据集成适用于异构数据源之间的数据类型转换和按需集成。对于业界主流数据库之间的数据迁移、同步场景,建议使用数据复制服务DRS;对于关系型数据库、大数据、文本等数据迁移到数据湖的场景,建议使用云数据迁移CDM。 表1 接入数据源 数据源接入配置 普通任务支持的集成模式(源端)
close_inactive: 1m clean_inactive: 72h output.logstash: # 填写ELK组件所服务器的IP和Logstash对外开放的端口号(在ELK的logstash.conf文件中配置,默认为5044),需自行配置防火墙端口,开放访问权限。