正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Connect开放API的配置样例,帮助您快速熟悉使用ROMA Connect集成服务的过程。 使用ROMA Connect集成服务的步骤如下所示: 步骤一:创建API分组 步骤二:创建API 步骤三:调试API 步骤四:发布API 步骤五:调用API 准备工作 在开始操作前,您需要提前完成以下准备工作。
选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 域名 填写APIC服务的域名地址。 项目ID 填写APIC云服务实例的projectId。 实例ID 填写APIC云服务实例的instanceId。 部署区域 填写APIC云服务实例的部署region。 登录方式
创建模型主题 概述 在这里用户可以使用简单易用的绘制工具,自定义数据资产模型的架构流程图,可在数据地图中进行展示。 前提条件 已完成采集技术模型和录入业务模型。 创建模型主题 登录ROMA Connect,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“应用业务模型ABM
MQTT Client与LINK进行对接,本例中Demo使用Java版本的SDK 前提条件 已获取设备的接入信息,具体请参见开发准备。 已安装开发工具和Java开发语言环境,具体请参见开发准备。 下载LINK Demo: Demo包括两个文件,DeviceConnectDemo.java
在ROMA Connect实例控制台选择“服务集成 APIC > 凭据管理”,在“凭据管理”页签下单击API所授权凭据的名称,进入凭据详情页面,获取凭据的Key和Secret。 准备开发环境 安装开发工具 请根据所使用语言选择适合的开发工具。 安装2018.3.5或以上版本的IntelliJ
据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 域名 填写IOT数据分析云服务的域名地址。 项目ID 填写IOT数据分析云服务实例的projectId。 实例ID 填写IOT数据分析云服务实例的instanceId。 部署区域 填写IOT数据分析云服务实例的部署region。
选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 域名 填写DataArts Studio云服务的域名地址。 项目ID 填写DataArts Studio云服务实例的projectId。 实例ID 填写DataArts Studio云服务实例的instanceId。
填写数据库的连接IP地址。 端口 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的端口。 服务名称 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写分布式数据库系统的服务名。 JDBC字符串 仅当“是否使用JDBC字符串”选择“是”时需要配置。 填写Oracle数据
扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 上传文件 单击“上传文件”,上传本地文件配置文件。 支持文件类型为:.yaml,.json, 文件个数最大值为:20
数据后先进行处理再写入目标端,脚本样例参见脚本映射样例。 OBS 返回页首 任务的“集成模式”为“定时”时,可以选择OBS作为目标端数据源,具体配置如下。 表9 目标端OBS信息 参数 配置说明 对象类型 选择写入OBS数据源的数据文件类型,当前支持“文本文件”和“二进制文件”。
扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 连接地址 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的连接IP地址。 端口 仅当“
Connect实例的Kafka版本,下载对应版本的开源Kafka命令行工具。 您可以在ROMA Connect实例控制台的“实例信息”页面,在“MQS基本信息”下查看Kafka版本信息。 1.1.0版本工具 2.7.2版本工具 已在Kafka命令行工具的使用环境中安装Java JDK,并完成相关环境变量的配置。
最大长度:2147483647 ftp_protocol 否 String 访问FTP服务协议类型。 sftp ftp 最小长度:4 最大长度:2147483647 address 否 String 地址。 OBS (obs远端地址,obs数据源使用)。 MONGODB (MONGODB数据源类型主机IP地址,多个IP:PORT,使用"
接入MQS数据源 接入MRS Hive数据源 接入MRS HDFS数据源 接入MRS HBase数据源 接入MRS Kafka数据源 接入OBS数据源 接入Oracle数据源 接入PostgreSQL数据源 接入Redis数据源 接入RabbitMQ数据源 接入RocketMQ数据源
最大长度:2147483647 ftp_protocol 否 String 访问FTP服务协议类型。 sftp ftp 最小长度:4 最大长度:2147483647 address 否 String 地址。 OBS (obs远端地址,obs数据源使用)。 MONGODB (MONGODB数据源类型主机IP地址,多个IP:PORT,使用"
最大长度:2147483647 ftp_protocol 否 String 访问FTP服务协议类型。 sftp ftp 最小长度:4 最大长度:2147483647 address 否 String 地址。 OBS (obs远端地址,obs数据源使用)。 MONGODB (MONGODB数据源类型主机IP地址,多个IP:PORT,使用"
gz”文件。 配置文件下载后,待系统将边缘节点连接上云,连接完成后单击“下载核心软件安装工具”按钮,下载对应的安装工具。当前支持X86_64和arm64,请下载对应的安装程序。 备份下载的核心软件安装工具中的“edge-installer_1.0.27_x86_64.tar.gz”文件到本地。
最大长度:2147483647 ftp_protocol String 访问FTP服务协议类型。 sftp ftp 最小长度:4 最大长度:2147483647 address String 地址。 OBS (obs远端地址,obs数据源使用)。 MONGODB (MONGODB数据源类型主机IP地址,多个IP:PORT,使用"
标系统的能力来确保数据一致性。 数据源采集文件时,并发任务支持的总文件大小不超过800M。 说明: 仅适用于OBS、FTP、MRS HDFS数据源。例如,并发执行2个OBS任务,2个FTP任务,则4个任务累加起来的文件大小不能超过800M。 FTP数据源类型 FTP数据源解析模式
扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据层/操作数据层/明细数据层/汇总数据层/应用数据层/贴源数据层。 是否使用JDBC字符串 选择连接数据库模式。 否:由系统根据用户配置自动拼接数据源连接字符串。 是:由用户自己输入数据源连接字符串。