检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
of MappingInfo objects 字段映射列表。 数组长度:1 - 9999 表4 ext_info 参数 是否必选 参数类型 描述 server_id 否 String MySQL的serverId。数据源为MySQL时,ServerID必填。 最小长度:1 最大长度:20
填写连接器实例名称。 主机IP地址 填写数据库的连接IP地址。 端口 填写数据库的连接端口号。 数据库 填写要连接的数据库名。 密码 连接数据库的密码。 描述 填写连接器的描述信息,用于识别不同的连接器。 支持的动作 有序集合基本操作 集合基本操作 哈希基本操作 列表基本操作 字符串基本操作 键的基本操作
API发布到不同环境后,会调用不同的后端服务吗? 使用环境变量,或者在后端服务定义不同的参数,可以实现API发布到不同环境时,调用不同的后端服务。 父主题: 服务集成
host为数据库的连接地址。 port为数据库的连接端口号。 dbname为要接入的POSTGRESQL数据库名。 用户名 数据库的登录用户名。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。 若测试结果为“测试连接成功!”,则继续下一步。
支持以下功能: - 通过一个处理器节点实现一个数据源到N个目标端的采集,能够完成1:N场景的数据采集。 - 任务配置采用拖拽节点的方式实现参数配置,简化流程。 - 编排模式的数据转换模式分为映射模式和脚本模式。JavaScript脚本能够实现从源端读取数据后先进行处理再写入目标端。
使用ROMA Connect集成消息 概述 ROMA Connect提供了安全、标准化消息通道,实现不同消息系统的集成对接。 本章节通过完成一个使用Kafka命令行与ROMA Connect对接的配置样例,帮助您快速熟悉使用ROMA Connect集成消息的过程。 使用ROMA Connect集成消息的步骤如下所示:
响应消息中“id”的值即为集成应用ID,保存并留待后续步骤使用。 接入数据源 调用“创建数据源”接口,接入需要开放数据的数据库,并获取返回的数据源ID。此处以MySQL数据库为例进行说明,其他类型数据库请参考接口的参数说明。 请求示例: POST /v2/{project_id}/fdi/instan
向跨域服务器发送XMLHttpRequest请求,从而实现跨域访问。更多跨域访问的说明请参见配置跨域访问API。 跨域资源共享插件为跨域访问提供指定预检请求头和响应头、自动创建跨域预检请求API的扩展能力,可快速、灵活的实现API的跨域访问。 使用限制 同一API分组下,发布在同
Connect提供了REST(Representational State Transfer)风格API,支持您通过HTTPS请求调用,调用方法请参见如何调用API。 父主题: 使用前必读
导入导出规则 概述 ROMA Connect支持导入导出规则,可以把规则以文件形式导出到本地,也可以把本地的规则文件导入ROMA Connect,实现规则引擎信息的批量迁移。 前提条件 导入规则前,请确保规则所属的集成应用已创建,否则请提前创建集成应用。 导入规则前,请确保规则所属的产品已创建,否则请提前创建产品。
Connect支持的数据源类型无法接入您使用的数据源,您可以自行开发一个数据源插件,用于实现对数据源的读写。 同时,这个数据源插件以标准RESTful接口形式供ROMA Connect接入,最终实现ROMA Connect对数据源的读写。 这个数据源插件称为连接器,这类通过连接器接入的数据源称为自定义数据源。
发布连接器 概述 在ROMA Connect中创建连接器后,您需要发布一个连接器实例,实现ROMA Connect与已部署连接器的对接。ROMA Connect通过已发布的连接器实例接入自定义数据源,实现对数据源的读写。 前提条件 已完成连接器的线下开发和部署,连接器与ROMA Con
将两个VPC的网络打通,实现跨VPC访问,具体请参考VPC对等连接说明。 级联的实例间跨网互通时,如果经过网闸设备,需要将中台实例和子公司实例的地址和端口提供给网闸设备,并在网闸设备中采用TCP协议摆渡方式打通网络路径。也可以通过专用VPN或隧道来实现跨网互通。 配置实例间的级联关系
使用。 方案实现 ROMA Connect支持通过控制台或API方式进行业务配置。本章节主要介绍如何调用ROMA Connect的业务API完成业务系统数据开放的配置,以指导开发者在进行业务系统开发时,如何集成ROMA Connect的业务功能。 调用业务API实现业务系统数据开放的流程如下:
ials.csv。 支持的动作 获取项目下流水线执行状况 获取流水线状态 获取流水线列表接口 删除流水线 批量获取流水线状态 停止流水线 启动流水线 检查流水线创建状态 查询模板详情 查询模板列表 配置参数 表1 获取项目下流水线执行状况 参数 说明 region_id 区域ID。
从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗? 如果是采集同一个文件,每次在OBS上更新文件,目标端数据库有主键情况下,每次会根据主键更新数据。 如果是采集多个文件,目标端数据库有主键且主键相同的情况下,每次都会更新成时间最早的文件里的值,即数据内容没有变化
仅当“连接模式”选择“专业”时需要配置。 填写PostgreSQL数据库的JDBC格式连接串,例如:jdbc:postgresql://{hostname}:{port}/{dbname}。 {hostname}为数据库的连接地址。 {port}为数据库的连接端口号。 {dbname}为要接入的数据库名。 用户名
分组。 如果需要使用自定义认证方式进行API的安全认证,请提前创建前端自定义认证。 限制与约束 如果为自定义后端发布的前端API的请求路径增加了请求参数,那么无法在自定义后端的发布页面进行发布,需要在前端API页面进行发布操作。如果只修改了自定义后端的内容,建议重新部署即可,无需重新发布。
分组。 如果需要使用自定义认证方式进行API的安全认证,请提前创建前端自定义认证。 限制与约束 如果为自定义后端发布的前端API的请求路径增加了请求参数,那么无法在自定义后端的发布页面进行发布,需要在前端API页面进行发布操作。如果只修改了自定义后端的内容,建议重新部署即可,无需重新发布。
消息大小:512byte 消息目的端:MQS Topic 数据集成规格在以下条件中测试得出: 分别执行以下三个任务场景,每个场景3个并发任务: mysql-mysql任务场景 obs-obs任务场景 kafka-kafka任务场景 读写100W数据 数据迁移量1G 服务集成规格在以下条件中测试得出: