检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
XML校验 “XML校验”处理器用于对XML格式数据处理时,进行内容校验与处理。如校验正确在系统日志中没有错误信息,校验失败系统日志中会打印异常信息,并结束流任务的运行。 配置参数 参数 说明 XML 待校验的xml数据,文本输入大小限制10万字符。 XML Schemas Definition
对称加解密 “对称加解密”处理器用于使用指定的对称加密算法对明文进行加密、对密文进行解密操作。 配置参数 参数 说明 操作 当前支持对称加密、对称解密、HMAC签名、HMAC验签。 加密算法 对称加/解密当前支持AES算法。 HMAC签名/验签当前支持HMAC算法。 加密模式 仅
"error_code": "AS.0001" } 其中,error_code表示错误码,error_msg表示错误描述信息。 父主题: 如何调用API
组合应用 在画布页面对各种触发器、连接器、处理器进行编排和配置,组合成新的组合应用。 智能助手 智能助手通过NLP (Natural Language Processing) 机器学习,理解用户输入的集成业务需求,匹配系统支持的触发器、连接器和数据处理器,生成组合应用。可以对生成的组合应
非对称加解密 “非对称加解密”处理器用于使用指定的非对称加密算法对明文进行加密、对密文进行解密操作。 配置参数 参数 说明 私钥 解密时必填,base64编码。 公钥 加密时必填,base64编码。 操作 当前支持非对称加密、非对称解密。 加密算法 加密算法,当前支持RSA。 明文
行签名。详细的签名方法和SDK使用方法请参见API签名指南。 签名SDK只提供签名功能,与服务提供的SDK不同,使用时请注意。 父主题: 如何调用API
APIC是否支持多后端节点方案? 通过负载通道支持多后端节点。一个负载通道中可以添加多个弹性云服务器。 父主题: 服务集成
APIC如何对流量进行控制? 您可以通过流控策略控制单位时间内API被访问的次数,保护后端服务,详情请参考流量控制。 默认的流控策略是单个API的访问不超过6000次/秒,如果您未创建流控策略,APIC会执行默认流控策略。您可以在ROMA Connect实例控制台“实例信息”页面
使用iOS系统时,如何进行APP认证? 目前APIC为APP认证提供了Java、Python、C、PHP、Go等多种语言的SDK与demo,当您使用iOS系统或者其他未包含在内的语言时,请参考APP认证工作原理进行APP认证。 父主题: 服务集成
SDK概述 本文介绍了ROMA Connect服务提供的SDK语言版本,列举了最新版本SDK的获取地址。 在线生成SDK代码 API Explorer能根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。 SDK列表 在开始使用之前,请确保您安装的是最新版本的SDK
边缘节点时间需要与UTC+8时间保持一致,否则会导致边缘节点的监控数据、日志上传出现偏差。您可以选择合适的NTP服务器进行时间同步,从而保持时间一致。配置方法可参考如何同步NTP服务器中的操作步骤。 离线安装包获取与安装请参考离线版软件获取与安装方法。 检查hosts环境信息是否配置了hostname的地址映射。
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
源端API类型数据源自定义周期如何设置? 创建FDI普通任务时,当源端数据源选择API类型并且开启增量迁移时,支持自定义周期,自定义周期配置详细说明可参照以下示例: 当粒度单位为“小时”时,分别有以下四种配置场景。 以时间点2020-11-05 22:10为例,如下图。 周期指定
cannot be deleted. Bring the device offline first. 不支持删除在线的设备,请先下线设备 检查设备是否处于在线状态,若在线,下线之后再执行删除设备操作。 500 ROMA.00111010 Failed to query the device
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka
Consumer使用建议 Consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 Consumer不能频繁加入和退出group,频繁加入和退出,会导致Consumer频繁做rebalance,阻塞消费。
端三个方面进行处理。 消费者端 根据实际业务需求,合理增加消费者个数(消费并发度),建议消费者数量和分区数保持一致。 提高消费者的消费速度,通过优化消费者处理逻辑(减少复杂计算、第三方接口调用和读库操作),减少消费时间。 增加消费者每次拉取消息的数量:拉取数据/处理时间 >= 生产速度。
配置目标端数据信息 概述 本节主要提供数据集成任务目标端信息的配置说明。目标端信息用于告诉ROMA Connect如何将待集成的数据写入到目标端,包括数据源、数据存储信息等。对于不同的数据源类型,其目标端信息配置有所差异。 支持“定时&实时”模式的目标端数据类型 仅支持“定时”模式的目标端数据类型
1分钟 broker_fetch_mean 生产请求平均处理时长 统计Broker节点处理生产请求平均时长。 ≥0 单位:毫秒 节点 1分钟 broker_produce_mean 消费请求平均处理时长 统计Broker节点处理消费请求平均时长。 ≥0 单位:毫秒 节点 1分钟 broker_alive