检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HBSE的JDBC格式连接串,例如:jdbc:hbase:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI HBase配置文件。配置文件获取请参考获取FI
设备上报的数据经规则引擎转发到消息集成的Topic上存储。 通过数据集成任务把Topic中的停车场数据实时写入停车场管理系统的数据库中,用于车位状态监测和停车计费,并可在IOC大屏上显示。 通过数据API把数据库中的车位状态数据开放给第三方应用,供车主、城市管理者了解停车场车位情况。 使用ROMA Conne
倾斜时,DWS集群会变为只读状态。从FDI侧来看,在某个时间点,所有访问DWS的任务均异常停止。 解决方案 处理DWS只读状态问题,恢复数据库服务后,如果FDI的任务停止时间没有超过6小时,可以直接启动任务。如果已经超过6小时,通道内的数据已经过期,需要根据实际情况重置同步进度,
仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的连接IP地址。 端口 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的端口。 客户端ID 填写APPCUBE系统中要连接的客户端号。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。
模型管理 管理模型采集任务 同步数据库和缓存数据 父主题: 应用业务模型使用指导
ConsumerRecords<Object, Object> records = consumer.poll(1000); System.out.println("the numbers of topic:" + records.count());
自动续费 自动续费可以减少手动续费的管理成本,避免因忘记手动续费而导致实例被自动删除。自动续费的规则如下所述: 以实例的到期日计算第一次自动续费日期和计费周期。 实例自动续费周期以您选择的续费时长为准。例如,您选择了3个月,实例即在每次到期前自动续费3个月。 在实例到期前均可开通自动续
数据集成组合任务 源数据库重启等操作对组合任务是否有影响? 如何修复意外重启等原因导致的XStream模式Oracle CDC功能异常? 父主题: 数据集成
最新动态(html) 本文介绍了Huawei Cloud EulerOS产品新特性和对应的文档动态,新特性将在各个区域(Region)陆续发布,欢迎体验。
填写HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传FI Hive配置文件。配置文件获取请参考获取FI
传统停车场管理系统数字化改造 方案概述 在ROMA Connect注册设备 配置设备数据转发MQS 创建MQS到数据库的集成任务 创建并开放数据API 设备接入ROMA Connect
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是
HIVE的JDBC格式连接串,例如:jdbc:hive2:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传MRS Hive配置文件。配置文件获取请参考获取MRS
BASE的JDBC格式连接串,例如:jdbc:hbase:// host:port/dbname。 host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的数据库名。 用户名 数据库的登录用户名。 上传认证文件 单击“上传文件”,上传MRS HBase配置文件。配置文件获取请参考获取MRS
创建数据字典 概述 数据字典可以将系统数据库的关键值开放给用户使用。数据字典中的DEVICE_TYPE为默认数据字典,用户也可自定义创建数据字典。 约束与限制 子服务中包含“设备集成 LINK”的实例才可以在“实例信息”页面显示“数据字典”页签,如果实例中包括“消息集成 MQS”、“数据集成
导入导出规则 概述 ROMA Connect支持导入导出规则,可以把规则以文件形式导出到本地,也可以把本地的规则文件导入ROMA Connect,实现规则引擎信息的批量迁移。 前提条件 导入规则前,请确保规则所属的集成应用已创建,否则请提前创建集成应用。 导入规则前,请确保规则所属的产品已创建,否则请提前创建产品。
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是
instance_id string 是 租户使用ROMA Connect的实例ID。 请求消息 请求参数 无 请求示例 https://example.cloud.com/v1/80e2b******f4a398d6409a50932d917/link/instances/fb3b24ab-5d8
连接器 触发器 HTTP 数据库 华为云服务 SaaS应用 邮箱 其他 消息系统 自定义连接器
数据源处于任务目标端 最小长度:0 最大长度:6 db_name 否 String 数据库名称,只支持MRSHIVE类型的数据源。 最小长度:0 最大长度:64 db_schema 否 String 数据库模式,GAUSS100数据库使用。 最小长度:0 最大长度:64 filter 否 String