检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实例支持的APIC特性 若当前实例中无相关特性,可提交工单申请升级实例解决。 特性名称 特性描述 特性是否可配置 特性配置示例 特性配置参数 参数描述 参数默认值 参数范围 lts 是否支持SHUBAO访问日志上报功能。 是 {"name":"lts","enable":true
功能总览 功能总览 全部 ROMA Connect 集成应用 数据集成任务 自定义数据源 负载通道 自定义后端 环境与环境变量 跨域访问 流量控制 访问控制 Topic 生产者与消费者 产品 规则引擎 设备通知 ROMA Connect 应用与数据集成平台(ROMA Connec
DataSourceClient类说明 路径 com.roma.apic.livedata.client.v1.DataSourceClient 说明 连接数据源,执行SQL语句、存储过程或NOSQL查询语句。 使用示例 SQL数据源示例: importClass(com.roma
接入DB2数据源 概述 ROMA Connect支持把DB2数据库作为一个数据源,并用于数据集成任务。在使用DB2数据源前,您需要先接入数据源。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA
配置索引生命周期策略(可选) ElasticSearch存储的数据,默认未设置过期时间,用户可根据磁盘空间情况,为ElasticSearch数据设置索引生命周期策略。 创建生命周期策略 登录Kibana可视化界面。 访问地址:IP:Port 其中,IP为ELK所部署服务器的IP;
DataSourceConfig类说明 路径 com.roma.apic.livedata.config.v1.DataSourceConfig 说明 配合DataSourceClient使用,对数据源进行配置。 构造器详情 public DataSourceConfig() 构
CacheUtils类说明 路径 com.huawei.livedata.lambdaservice.util.CacheUtils 说明 提供缓存的存储和查询功能。 使用示例 在使用CacheUtils之前,需要new一个新对象方可调用。 CacheUtils的get方法只允许使用白名单里的几项作为键:
接入自定义数据源 概述 ROMA Connect支持把自定义的连接器作为一个数据源,并用于数据集成任务。在使用自定义数据源前,您需要先接入数据源。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 已有可用的连接器
接入DWS数据源 概述 ROMA Connect支持把DWS(数据仓库服务)作为一个数据源,并用于数据集成任务或用于创建数据API。在使用DWS数据源前,您需要先接入数据源。 请使用PostgreSQL数据源类型来对接DWS数据库(DWS数据源类型不推荐使用,但因历史原因,暂不下线)。
接入FTP数据源 概述 ROMA Connect支持把FTP作为一个数据源,并用于数据集成任务。在使用FTP数据源前,您需要先接入数据源。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA
接入DM数据源 概述 ROMA Connect支持把DM数据库作为一个数据源,并用于数据集成任务。在使用DM数据源前,您需要先接入数据源。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA
组合应用模板 对于教育、电商、医疗、零售等行业,ROMA Connect提供了定制化的集成模板,以帮助不同领域的企业在特定的场景中快速实现应用间的集成。 以下是一些行业特定的ROMA Connect集成模板介绍。 教育行业 帮助学校、教育机构和在线学习平台实现学员数据管理、教学资
接入RabbitMQ数据源 概述 ROMA Connect支持把RabbitMQ作为一个数据源,并用于数据集成任务。在使用RabbitMQ数据源前,您需要先接入数据源。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是
接入Kafka数据源 概述 ROMA Connect支持把Kafka作为一个数据源,并用于数据集成任务。在使用Kafka数据源前,您需要先接入数据源。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA
配置后端服务的签名校验 概述 签名密钥用于后端服务验证ROMA Connect的身份,在ROMA Connect访问后端服务时,保障后端服务的安全。 签名密钥由一对Key和Secret组成,只有将API绑定签名密钥后,签名密钥才对API生效。 同一个API在同一个环境中只能绑定一
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是
接入HIVE数据源 概述 ROMA Connect支持把HIVE作为一个数据源,用于创建数据API。在使用HIVE数据源前,您需要先接入数据源。 数据集成中仅支持百万以内数据量。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。
HTTP响应头管理插件说明 概述 HTTP响应头是API响应中的一部分。HTTP响应头管理插件提供了自定义HTTP响应头的能力,并在API响应中返回自定义的响应头。 使用限制 ROMA Connect增加的系统响应头(x-apig-*、x-request-id等)不支持修改。 跨
Base64Utils类说明 路径 com.roma.apic.livedata.common.v1.Base64Utils 说明 提供Base64Utils编码和解码功能。 使用示例 Base64编码示例: importClass(com.roma.apic.livedata.common