检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 域名 填写APIC服务的域名地址。
跟踪号是什么,能跟踪到数据吗? 跟踪号为后台跟踪任务状态使用,不能跟踪到数据。 父主题: 数据集成普通任务
配置规则引擎。 配置普通设备采集上来的数据转发到MQS。 在规则引擎界面单击“创建规则”按钮,规则引擎所属应用需要与普通产品相同。 · 单击规则引擎名称进入规则引擎详情页面,配置数据源端和数据目的端。 数据源端选择之前创建的产品和设备。 数据目的端选择同实例下的MQS。 调试设备
Connect配置样例,帮助您快速熟悉使用ROMA Connect集成数据、服务、消息、设备的过程。 数据集成 数据集成开发场景 连接器RESTful接口规范 自定义数据源开发示例(定时任务) 自定义数据源开发示例(实时任务) 服务集成 服务集成开发场景 API调用认证开发(APP认证)
配置普通设备采集上来的数据转发到MQS。 在规则引擎界面单击“创建规则”按钮,规则引擎所属应用需要与普通产品相同。 单击规则引擎名称进入规则引擎详情页面,配置数据源端和数据目的端。 数据源端选择之前创建的产品和设备。 数据目的端选择同实例下的MQS。 调试设备 通过规则引擎将采集到的数据转发到M
照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 JDBC字符串
MQS实例管理 查询MQS实例列表 查询MQS实例详情 父主题: 消息集成API
照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 JDBC字符串
单击“自动Mapping”,源端和目标端数据字段间的映射规则自动建立。 图1 自动Mapping 手动配置Mapping 如果两端的数据表字段不一致,可单击下方的“添加mapping映射”,配置源端数据字段到目标端数据字段的映射关系。 用户可以手动添加源端数据字段与目标端数据字段的映射规则,该方式
多个数据源编排 一个数据API可以包含多个数据源,因此一次API请求可以涉及多个数据源,例如取第一个数据源查询结果作为第二个数据源的参数。 以MySQL为例说明,假设数据API有数据源1和数据源2,user01是数据源1的数据表和user02是数据源2的数据表,两张表的结构如下:
照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 JDBC字符串
照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 连接地址 仅当
照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 JDBC字符串
Artifact),是面向软件开发者提供软件发布的云服务,提供软件仓库、软件发布、发布包下载、发布包元数据管理等功能,通过安全可靠的软件仓库,实现软件包版本管理,提升发布质量和效率,实现产品的持续发布。 前提条件 使用CodeArts Artifact前,需要开通CodeArts Artifact服务。
修改数据源配置 概述 数据源的连接信息包括地址、账号和密码,为非资产数据,在导入集成资产后需要重新配置。 前提条件 已完成集成资产的导入。 操作步骤 在实例控制台的“数据源管理”页面,单击数据源右侧的“编辑”。 在编辑数据源页面修改数据源的连接信息配置。 对于资产恢复场景,修改密码配置。
生产业务迁移后,观察连接ROMA Connect实例的消费业务是否正常。 等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 迁移结束。 迁移持久化数据 如果需要将原Kafka的已消费数据也迁移到ROMA Connect实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及ROMA
创建并开放数据API 接入数据源 创建数据API 绑定域名 配置API授权(可选) 父主题: 服务集成指导(旧版界面)
息的场景。 数据加密传输 SASL_SSL 选择是否开启消息传输的SASL认证和SSL加密,建议您开启SASL认证和SSL加密,提高数据传输的安全性。 数据加密传输 SASL_SSL一旦开启后将无法修改,请根据实际业务需要选择是否启用。 VPC内网明文访问 仅当“数据加密传输 SASL_SSL”开启时可配置。
独有的安全加固体系,提供业务操作云端审计,消息传输加密等有效安全措施。通过SASL认证,安全组等加强网络访问控制。 支持消息数据高可靠 支持消息持久化,多副本存储机制。副本间消息同步、异步复制,数据同步或异步落盘多种方式供您自由选择。 使用流程 使用ROMA Connect进行消息集成的流程如下图所示。
支持Broker水平扩展,支持百万设备长连接。 支持设备与应用之间的双向同步 基于设备影子实现设备与应用之间配置数据、状态数据的双向同步。 支持安全的设备信息传输 提供设备、应用授权认证及Topic的双向绑定授权,保障设备安全与唯一性,同时提供TLS标准的数据传输通道保障消息传输通道的安全。 使用流程 使用ROMA