检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
”加到请求消息头即可,如下所示。 GET https://iam.xxx.com/v3/auth/projects Content-Type: application/json X-Auth-Token: ABCDEFJ.... AK/SK认证 AK/SK签名认证方式仅支持消息体大小12
基本概念 账号 用户在云服务平台注册的账号,账号对其所拥有的资源及云服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议您不要直接使用账号进行日常管理工作,而是创建用户并使用他们进行日常管理工作。 用户 由账号在IAM中创建的用户,
分支判断 “分支判断”处理器用于创建条件分支,以决定后续节点的执行逻辑。用户需要在“分支判断”节点与其后续相邻节点的连线上配置各分支的条件。 约束与限制 一个“分支判断”节点中,如果存在多个相同的“满足当前条件时”类型的表达式,最终将执行最先创建的分支上的步骤。 一个“分支判断”
EDI处理 “EDI处理”处理器用于在两个不同的电子计算机系统之间进行数据交换和自动处理,其中传递的消息为双方商定的通用标准格式。 配置参数 参数 说明 操作 选择组件的操作。 解析:表示将收到指定标准的EDI文件解析为Json格式文件。 生成:用于将Json格式文件变为指定标准的EDI文件。
数据转换 “数据转换”连接器用于数据流的格式转换,当前支持XML转JSON和JSON转XML。 配置参数 参数 说明 转换模式 选择数据转换的模式,可选择“XML转JSON”和“JSON转XML”。 内容 通过脚本编写需要转换的数据。 可通过变量的方式引用前序步骤中的数据,请参考引用变量。
数据拆分 “数据拆分”组件将传入该节点的数据按照指定的表达式进行拆分,并将拆分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据。
异常监控 “异常监控”处理器用于对指定流程进行监控,捕获发生的异常并根据配置的参数进行重试和异常处理操作。 配置参数 参数 说明 错误类型 捕获异常类型。“运行异常”包含当前所有服务异常。 包含错误信息 捕获异常包含错误信息。只有当捕获的异常信息中包含指定错误信息时,会进行异常处理步骤。
变量修改 “变量修改”处理器用于修改前置“变量赋值”节点创建的变量的值。一个“变量修改”节点中可以更新多个变量。 配置参数 参数 说明 选择变量 选择前置“变量赋值”处理器中创建的变量。 变量值 填写修改后的变量值。变量值可以是一个常量,如“hello world”,也可以使用表达式引用前序步骤的变量,例如
XML校验 “XML校验”处理器用于对XML格式数据处理时,进行内容校验与处理。如校验正确在系统日志中没有错误信息,校验失败系统日志中会打印异常信息,并结束流任务的运行。 配置参数 参数 说明 XML 待校验的xml数据,文本输入大小限制10万字符。 XML Schemas Definition
服务器则是Kafka集群中的核心组件,负责处理消息的存储和转发。Kafka的主要优点是可扩展性、高吞吐量、低延迟、可靠性和持久性。它被广泛应用于大数据处理、实时数据流处理、日志收集等领域。 创建Kafka连接 登录新版ROMA Connect控制台。 在左侧导航栏选择“连接器”,在连接器页面单击“新建连接”。
协议类型。 必填,取值MQTT、MODBUS或OPCUA。 Username 用户名。 选填。 Password 密码。 选填。 appName 应用名称。 必填,应用名称已存在。 DeviceType 设备类型。 必填,默认为Default。 DataFormat 数据格式。 必填,默认为JSON。
数据集成任务 MRS Hive目标端写入时出现数据乱码 MRS Hive写入时数据全部写在第一个字段里 目标端任务报任务运行超时 MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes
PostgreSQL PostgreSQL连接器用于连接PostgreSQL数据库,负责建立和维护应用程序和PostgreSQL数据库之间的连接,并管理数据的传输。 PostgreSQL是一个特性齐全的开源的对象-关系型数据库。 PostgreSQL默认端口为5432,但是管理员可以根据需要将其更改为其他端口。
进行数据采集,保证数据不丢失。 使用流程 使用ROMA Connect进行数据集成的流程如下图所示。 图1 业务使用流程 已创建实例和集成应用。 接入数据源。 接入源端和目标端数据源,确保可以正常从源端读取数据以及向目标端写入数据。 创建集成任务。 数据集成任务规定了源端到目标端
MQ是IBM提供的一个消息队列软件,它可以在分布式系统中进行异步通信,确保数据的可靠传输。MQ是一种基于消息的中间件,它提供了一种可靠、安全的方式来传输消息,可以在不同的应用程序、平台和系统之间进行通信。MQ可以确保消息在传输过程中不会丢失、重复或失序,并且可以在不同的系统之间进行数据转换和格式化。 创建IBM
资产后需要重新配置。可通过设备导入和规则导入功能,批量恢复或新建设备和规则信息。 前提条件 已完成集成资产的导入,确保设备和规则所属的集成应用和产品已成功导入。 操作步骤 (可选)准备设备列表和规则列表文件。 从资产包所属的源实例获取导出的设备列表和规则列表文件。 创建设备。 在实例控制台的“设备集成
DWS DWS连接器用于连接DWS数据库,负责建立和维护应用程序和DWS数据库之间的连接,并管理数据的传输。 数据仓库服务GaussDB(DWS)是一种基于华为云基础架构和平台的在线数据分析处理数据库,提供即开即用、可扩展且完全托管的分析型数据库服务,兼容ANSI/ISO标准的SQL92、SQL99和SQL
部署后的自定义后端是否可以修改? 已部署的自定义后端,除集成应用、后端请求方法和后端请求路径无法修改外,其他配置信息可以修改,修改后的配置需重新部署后才生效。 父主题: 服务集成
规则名称,支持英文大小写、数字、下划线和中划线,长度1-64。 最小长度:1 最大长度:64 app_id String 应用ID。 最小长度:0 最大长度:64 app_name String 应用名称。 最小长度:0 最大长度:256 description String 描述。 最小长度:0
先接入数据源。 约束与限制 数据集成中仅支持百万以内数据量。 前提条件 每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。