检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点中可以创建多个变量。 配置参数 参数 说明 变量名 填写变量的名称。 变量类型 选择变量的类型,目前支持字符串、整数、长整数、小数、布尔和对象。 变量值 填写变量的值。变量值可以是一个常量,如“hello world”,也可以使用表达式引用前序步骤的变量,例如 ${a}、${payload}。
请求参数匹配编排规则的生效优先级与列表顺序保持一致,列表中靠前的配置匹配优先级较高 如果编排规则列表中包含none_value类型的规则,则none_value类型的规则优先级最高,至多绑定一个none_value类型的规则; 如果编排规则列表中包含default类型的规则,则defa
connection point is less than the quota. 总的节点路径超过节点路径的配额,请确保同一个Opcua连接点下导入的节点数加上已经存在的节点数少于节点的配额 减少导入的节点数或联系管理员申请配额。 500 ROMA.00111039 The topic
数据集成组合任务 目标表中配置的RowId字段类型不正确导致写入数据失败 读取MySQL的binlog时报“binlog probably contains events generated with statement or mixed based replication forma”错误
FTP用户密码。 描述 填写连接器的描述信息,用于识别不同的连接器。 支持的动作 写入文件 配置参数 参数 说明 目录路径 填写FTP服务器下文件的相对路径。 文件名 填写需要写入的文件名。 写入内容 填写需要写入的内容。 写入策略 选择需要写入的策略 覆写:覆盖同名文件内容; 追加:在同名文件末尾追加内容;
联系技术支持。 400 APIC.0106 Orchestration error. 检查API配置的前后端参数是否合理。 400 APIC.0201 Bad request. 使用合法的请求。 413 APIC.0201 Request entity too large. 减小请求body大小,小于12M。
联系技术支持。 400 APIC.0106 Orchestration error. 检查API配置的前后端参数是否合理。 400 APIC.0201 Bad request. 使用合法的请求。 413 APIC.0201 Request entity too large. 减小请求body大小,小于12M。
日志中没有错误信息,校验失败系统日志中会打印异常信息,并结束流任务的运行。 配置参数 参数 说明 XML 待校验的xml数据,文本输入大小限制10万字符。 XML Schemas Definition xsd格式的校验数据(同xml编写规则),命名空间“http://www.w3
Connect实例的消息集成在开启SASL_SSL的同时,也开启了VPC内网明文访问,则VPC内无法使用SASL方式连接消息集成的Topic。 使用SASL方式连接消息集成的Topic时,建议在客户端所在主机的“/etc/hosts”文件中配置host和IP的映射关系,否则会引入时延。
消息头中X-Subject-Token的值)。 最小长度:1 最大长度:100000 表3 请求Body参数 参数 是否必选 参数类型 描述 product_id 是 Integer 产品ID,自动向下取整。规则源端配置为产品级时不允许配置分组。 最小值:1 最大值:99999999999999999
便于在工作流中配置处理事件网格感知到的订阅事件。 支持的动作 华为云事件源 自定义事件源 配置参数 表1 华为云事件源 参数 说明 事件订阅名称 在事件网格创建的事件订阅名称。 区域 事件网格服务所在区域。 项目 事件网格服务所在项目。 通道 事件通道,存储接收到的事件消息,并根据事件规则将事件消息路由到事件目标。
“数据筛选”组件对传入该组件的数据按照指定的表达式进行筛选,并将筛选出的结果通过节点变量传递给后续节点。通常“数据筛选”组件会作为“数据拆分”组件的后续步骤以配合使用。 配置参数 参数 说明 表达式 数据筛选的表达式。 使用表达式对数据进行筛选,并传递给后续节点。例如数据拆分出的多个数据块为{
读写的表名、可以进行增量读取的时间戳字段列名等。 图2 连接器配置2 发布连接器 连接器创建完成后,单击发布,可以发布连接器的实例。 连接器和连接器实例的关系,类似编程中的类和类对象实例。 连接器定义了针对某种数据源的规范,连接器实例则对应了具体的RESTful服务,所以需要指定RESTful连接地址
“数据拆分”组件将传入该节点的数据按照指定的表达式进行拆分,并将拆分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据。 配置参数 参数 说明
Connect的能力计算单元。每个RCU可分配到不同的集成能力上,包括数据集成、服务集成、消息集成、设备集成、组合应用等。根据分配的RCU数量,各集成能力提供不同的性能规格,分配的RCU数量越多,集成能力的性能规格越高。 连接器 ROMA Connect支持常见的数据源类型,如关
111或以上版本的Java Development Kit。 设备开发要求: 通过MQTT协议接入设备时,当前仅支持MQTT协议中的QoS0和QoS1。 为防止因网络不稳定或实例升级等原因导致设备连接中断,建议在设备开发过程中增加自动重连机制。如果使用ROMA Connect提供的设备de
时,而套餐包的价格为294元/月,可见为实例购买套餐包更优惠。 变更配置后对计费的影响 如果您在购买按需计费实例后变更了实例配置,在已购买RCU时 套餐包的情况下,依然是优先抵扣套餐包中的RCU时额度,但是抵扣RCU时的速度会根据实例RCU数量变化而变化,超过额度的使用量按需计费,但不影响已购买套餐包的计费。
FTP数据源解析模式下支持的最大文件大小为200M,超过200M的文件将自动跳过,不进行采集;解析的数据行数最大为1500000;不解析模式下,支持的最大文件大小为6M,最大文件数量为20000。 说明: FTP数据源之间多个文件同步统计,代表的是本次同步的文件的数量。 OBS数据源类型
FDI任务只能采集单张表到单张表吗? 用户创建的FDI任务,同一账号的其他用户可见吗? FDI通过公网对接其他租户的MRS HIVE如何配置? 从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗? OBS源端的CSV文件解析到关系型数据库时,列的值不对怎么办? MRS Hive
“脚本处理”组件用于处理数据。用户可使用指定的编程语言编写脚本,对传入“脚本处理”组件的数据进行处理,生成新的数据供后续步骤使用。 配置参数 参数 说明 语言 选择编写脚本使用的编程语言,当前支持ES6版本的JavaScript语言。 内容 编写脚本内容。 可通过变量的形式引用前序步骤中的数据,请参考引用变量。