检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在接入数据源页面的“默认数据源”页签下,选择“OBS”类型的数据源,然后单击“下一步”。 在页面中配置数据源的连接信息。 表1 数据源连接信息 参数 配置说明 数据源名称 填写数据源的名称,根据规划自定义。建议您按照一定的命名规则填写数据源名称,方便您快速识别和查找。 编码格式 默认“utf-8”格式。
选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接模式 选择数据库的连接方式。 默认:使用系统默认方式连接数据库。 专业:使用JDBC方式连接数据库。 连接地址 仅当“连接模式”选择“默认”时需要配置。 填写数据库的连接IP地址和端口号。 连接字符串 仅当“连接模式”选择“专业”时需要配置。
在监控调度页面中可根据任务状态和任务名称筛选要查看的任务的状态、调度模式、调度周期以及最近执行时间等信息等。 组合任务还可以查看重置同步进度,读取表的全量数据时间及等信息。 单击任务上的“调度日志”,可查看该任务的详细调度日志。 您可以设置“查询调度时间范围”,查看指定时间段的调度日志。 您可以单击右侧的“”(详细
选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写ArtemisMQ的连接IP地址和端口号。 用户名 填写连接ArtemisMQ的用户名。 密码 填写连接ArtemisMQ的用户密码。 是否开启SSL认证 ROMA Connect与ArtemisMQ的连接是否使用SSL认证加密。
据源名称,方便您快速识别和查找。 编码格式 默认“utf-8”格式。 集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写RocketMQ的连接IP地址和端口号。 数据源的接入配置示例如下所示。 图1 RocketMQ数据源配置示例 RocketMQ数据源不支持端口映射的方式接入。
如何调用API 构造请求 认证鉴权 返回结果
集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写DWS集群中数据库的连接IP地址和端口号。 数据库名 填写DWS集群中要接入的数据库名。 用户名 填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 DWS数据源的接入配置示例如下图所示。 图1
Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。 原因分析 数据源配置的不是本实例下的MQS地址,所以本实例下的MQS中虽然有消息,但是FDI任务采集不到数据。 解决方案 检查任务配置与数据源配置,修改数据源配置为正确的MQS地址。 父主题:
默认“utf-8”格式。 集成应用 选择数据源所归属的集成应用。 描述 填写数据源的描述信息。 连接地址 填写SNMP的连接IP地址和端口号。 网络协议 选择SNMP所使用的网络协议,可选择“UDP”和“TCP”。 版本号 选择SNMP的版本号。 0:表示SNMPv1 1:表示SNMPv2 3:表示SNMPv3
Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“设备集成 LINK > 设备管理”,在页面中获取设备的连接信息。 MQTT/MQTTS连接地址:在设备管理页面上方获取设备的接入地址,如果使用MQTT接入,则获取“MQTT连接地址”;如果使用MQTTS
填写MySQL数据库的访问端口,MySQL的默认访问端口为3306,以数据库的实际配置为准。 数据库名 填写数据表所在的数据库名称。 编码格式 数据库所使用的编码格式。 超时时间(秒) 连接数据库的超时时间,单位为秒。 用户名 访问数据库的用户名,且该用户具备数据库的读写权限。 密码
111或以上版本的Java Development Kit。 设备开发要求: 通过MQTT协议接入设备时,当前仅支持MQTT协议中的QoS0和QoS1。 为防止因网络不稳定或实例升级等原因导致设备连接中断,建议在设备开发过程中增加自动重连机制。如果使用ROMA Connect提供的设备de
表1 数据源连接信息 参数 配置说明 数据源名称 填写数据源的名称,根据规划自定义。建议您按照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层
为了可以马上执行数据集成任务并查看任务结果,此处使用手动执行任务的方式,执行API到MQS的数据集成任务。 步骤五:查看数据集成结果 在左侧的导航栏选择“消息集成MQS > 消息查询”,进入消息查询页面。 单击“高级搜索”展开高级搜索框。 输入搜索条件,然后单击“搜索”,查询客户端发送的消息记录。
数据层。 JDBC字符串 填写HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI
表1 数据源连接信息 参数 配置说明 数据源名称 填写数据源的名称,根据规划自定义。建议您按照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层
connect_address string 实例连接IP地址,VPC内地址。 instance_id string 实例ID。 project_id string 项目ID。 public_ip string 实例绑定的弹性IP地址。 status string 实例的状态。 响应示例 { "app_key":
填写数据源的名称,根据规划自定义。建议您按照一定的命名规则填写数据源名称,方便您快速识别和查找。 集成应用 选择数据源所归属的集成应用。 描述 编辑数据源的描述信息。 连接地址 填写Kafka的连接地址和端口号。 如果Kafka有多个副本(Broker),可单击“添加地址”填写多个连接地址。 是否SSL ROMA
cret。 集成应用的授权信息 集成应用的用户授权信息为非资产数据。 资产导入后重新配置用户授权。 数据集成 数据源的连接信息 数据源的连接信息包括地址、账号和密码,为非资产数据。 资产导入后重新为对应数据源配置连接信息。 服务集成 未发布RELEASE环境的API 未发布REL
表1 数据源连接信息 参数 配置说明 数据源名称 填写数据源的名称,根据规划自定义。建议您按照一定的命名规则填写数据源名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层