检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
日志采集 “日志采集”处理器用于自定义日志信息,并显示在当前任务的运行日志中(日志级别为Debug)。 配置参数 参数 说明 日志信息 设置日志内容,可使用常量,也可通过变量的方式引用前序步骤中的数据,具体请参考引用变量。 父主题: 处理器
非对称加解密 “非对称加解密”处理器用于使用指定的非对称加密算法对明文进行加密、对密文进行解密操作。 配置参数 参数 说明 私钥 解密时必填,base64编码。 公钥 加密时必填,base64编码。 操作 当前支持非对称加密、非对称解密。 加密算法 加密算法,当前支持RSA。 明文
对称加解密 “对称加解密”处理器用于使用指定的对称加密算法对明文进行加密、对密文进行解密操作。 配置参数 参数 说明 操作 当前支持对称加密、对称解密、HMAC签名、HMAC验签。 加密算法 对称加/解密当前支持AES算法。 HMAC签名/验签当前支持HMAC算法。 加密模式 仅
方案实现 ROMA Connect支持通过控制台或API方式进行业务配置。本章节主要介绍如何调用ROMA Connect的业务API完成业务系统数据开放的配置,以指导开发者在进行业务系统开发时,如何集成ROMA Connect的业务功能。 调用业务API实现业务系统数据开放的流程如下:
APIC如何对流量进行控制? 您可以通过流控策略控制单位时间内API被访问的次数,保护后端服务,详情请参考流量控制。 默认的流控策略是单个API的访问不超过6000次/秒,如果您未创建流控策略,APIC会执行默认流控策略。您可以在ROMA Connect实例控制台“实例信息”页面
使用iOS系统时,如何进行APP认证? 目前APIC为APP认证提供了Java、Python、C、PHP、Go等多种语言的SDK与demo,当您使用iOS系统或者其他未包含在内的语言时,请参考APP认证工作原理进行APP认证。 父主题: 服务集成
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
源端API类型数据源自定义周期如何设置? 创建FDI普通任务时,当源端数据源选择API类型并且开启增量迁移时,支持自定义周期,自定义周期配置详细说明可参照以下示例: 当粒度单位为“小时”时,分别有以下四种配置场景。 以时间点2020-11-05 22:10为例,如下图。 周期指定
Integer 映射关系总数 最小值:0 最大值:1000000 表5 ext_info 参数 参数类型 描述 server_id String MySQL的ServerID。 最小长度:1 最大长度:20 表6 MultiTaskMappingElement 参数 参数类型 描述 id String
测试连通性失败。 检查数据源配置是否有问题,或联系技术工程师处理。 400 FDI.3019 Failed to stop the real-time task. 停止实时任务失败。 检查任务配置是否有问题,或联系技术工程师处理。 400 FDI.3020 Failed to stop
Consumer使用建议 Consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 Consumer不能频繁加入和退出group,频繁加入和退出,会导致Consumer频繁做rebalance,阻塞消费。
如何修复意外重启等原因导致的XStream模式Oracle CDC功能异常? 因Oracle数据库意外重启等原因导致CDC功能异常时,可以在Oracle数据库中执行以下命令来排查和修复。 以sys用户连接到Oracle数据库,然后执行以下命令: SELECT CAPTURE_NAME
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka
Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是Kafka
能力。API分为两部分,第一部分为面向API使用者的API接口,定义了使用者如何调用这个API。第二部分面向API提供者,由API提供者定义这个API的真实的后端情况,定义了ROMA Connect如何去访问真实的后端服务。API的真实后端服务目前支持三种类型:传统的HTTP/H
使用ROMA Connect进行消息集成,有如下优势: 支持原生Kafka特性 兼容社区版Kafka的API,具备原生Kafka的所有消息处理特性。 支持安全的消息传输 独有的安全加固体系,提供业务操作云端审计,消息传输加密等有效安全措施。通过SASL认证,安全组等加强网络访问控制。
Connect提供了REST(Representational State Transfer)风格API,支持您通过HTTPS请求调用,调用方法请参见如何调用API。 父主题: 使用前必读
在请先创建对等连接。 如何创建VPC对等连接请参考VPC对等连接。 请检查数据源服务器端防火墙是否开放连接端口。 请检查数据源服务器端IP白名单限制是否添加FDI数据面IP。 请检查数据源IP是否为客户自有的数据中心或私有网,如果是请先建立VPN连接。 如何创建VPN连接请参考创建VPN连接。
serverAddr:网关的服务器地址 $context.serverName:网关的服务器名称 $context.handleTime:本次API调用的处理时间 $context.providerAppId:API拥有者的应用对象ID,暂不支持使用 $context.clientCertCN:
据源添加执行语句。 具体请参见自定义后端开发(数据后端)。 如果是Redis或MongoDB数据源,实际为Redis或MongoDB的数据处理命令。 完成后在页面右上角单击“保存”,保存数据后端配置。 测试后端功能。 在页面右上角单击“测试”,在下方的“测试参数”处,根据后端服务