检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
息不丢失。例如使用消息同步存储机制防止系统与服务器层面的异常重启或者掉电,使用消息确认(ACK)机制解决消息传输过程中遇到的异常。 考虑到网络异常等极端情况,用户除了做好消息生产与消费的确认,还需要配合ROMA Connect完成消息发送与消费的重复传输设计。 当无法确认消息是否
ne_value类型的规则优先级最高,至多绑定一个none_value类型的规则; 如果编排规则列表中包含default类型的规则,则default类型的规则优先级最低,至多绑定一个default类型的规则; 每个API仅允许选择一个参数绑定编排规则,且编排规则不能重复,支持绑定
获取记录 添加记录 更新记录 删除记录 配置参数 表1 获取记录 参数 说明 表名 填写要查询数据的数据表名。 字段名 填写要查询数据的字段名,多个字段以英文逗号(,)分隔。 WHERE条件 填写要查询数据的条件。 Order by字段 填写返回结果的排序字段。 Limit条数 填写返回结果的每页数据条数。
分区。 message_offset 是 Number 消息偏移量。 consumer_key 否 String 应用Key。在该消息头中添加一个consumer_key的消息头。 响应参数 状态码: 200 表5 响应Body参数 参数 参数类型 描述 topic String Topic名称。
在发布弹窗中配置前端API的相关信息,完成后单击“立即发布”,为该后端创建一个对应的前端函数API,并发布到环境上。 表2 发布配置 参数 配置说明 所属分组 选择前端API所属的API分组。若没有可用的API分组,可单击右侧的“创建分组”,创建一个API分组。 说明: 创建API后,将无法修改API
组件的后续步骤以配合使用。 配置参数 参数 说明 表达式 数据筛选的表达式。 使用表达式对数据进行筛选,并传递给后续节点。例如数据拆分出的多个数据块为{"id":1}和{"id":2},可使用表达式${payload.id} > 1,筛选出数据块{"id":2}。 如果没有数据满
TP的安全版本,也是SSH协议的一部分,可通过安全SHELL数据流轻松进行数据传输和数据访问。SFTP也被称为SSH文件传输协议,它提供了一个安全的连接来传输文件,并在本地和远程系统上遍历文件系统。 默认情况下,FTP协议使用TCP端口中的20和21这两个端口,其中20端口用于传
参考调用API示例。 调用API示例 在工程中引入sdk(signer.go)。 import "apig-sdk/go/core" 生成一个新的Signer,输入API所授权凭据的Key和Secret,可参考获取API的调用信息获取。 s := core.Signer{ // Directly
以下操作需在每台虚拟机上都执行。 以root用户登录待挂载虚拟机。 查看磁盘情况。 fdisk -l 系统显示如下类似信息表示系统有两个磁盘,一个是空间大小300G盘符为/dev/vdb的磁盘,一个是空间大小200G盘符为/dev/vdc的磁盘,需将300G磁盘/dev/vdb挂载到/opt/roma/dat
TP的安全版本,也是SSH协议的一部分,可通过安全SHELL数据流轻松进行数据传输和数据访问。SFTP也被称为SSH文件传输协议,它提供了一个安全的连接来传输文件,并在本地和远程系统上遍历文件系统。 默认情况下,FTP协议使用TCP端口中的20和21这两个端口,其中20端口用于传
到不同环境的区分效果。 环境变量定义在API分组上,该分组下的所有API都可以使用这些变量。 1.环境变量的变量名称必须保持唯一,即一个分组在同一个环境上不能有两个同名的变量 2.环境变量区分大小写,即变量ABC与变量abc是两个不同的变量 3.设置了环境变量后,使用到该变量的API的调试功能将不可使用。
当需要解析JSON格式的内容数据时,可通过“JSON.parse('${body}')”的方式将内容数据转换为JSON对象,然后进行数据解析。 脚本处理组件可以生成一个输出结果并传给后续步骤,用户需要在脚本的末尾指定要输出的变量名称,例如: function getUser(){ return {"id":
config”路径中得到“core-site.xml”、“hdfs-site.xml”文件。 生成MRS HDFS配置文件。 将上述获取到的文件放到一个新的目录下,并打包成zip文件,所有文件位于zip文件的根目录下。 文件名只能由英文字母或数字组成,长度不超过255个字符。 文件大小不超过2MB。
public class ReaderRequestBody { private String job_name; private JSONObject datasource; private ReaderParams params; } 在根目录下执行以下
config”路径中得到“core-site.xml”、“hdfs-site.xml”文件。 生成MRS HBase配置文件。 将上述获取到的文件放到一个新的目录下,并打包成zip文件,所有文件位于zip文件的根目录下。 文件名只能由英文字母或数字组成,长度不超过255个字符。 文件大小不超过2MB。
业务使用流程 已创建实例和集成应用。 开放API 开放API 创建API分组 每个API都归属到某一个API分组下,在创建API前应提前创建API分组。 绑定域名 在开放API前,您需要为API分组绑定一个独立域名,供用户访问API使用。 在绑定独立域名前,您可以使用系统为API分配的默认子域名进行API调用测试,ROMA
servers的值拷贝到fikafka-consumer.properties”文件中。 生成MRS Kafka配置文件。 将上述获取到的文件放到一个新的目录下,并打包成zip文件,所有文件位于zip文件的根目录下。 文件名只能由英文字母或数字组成,长度不超过255个字符。 文件大小不超过2MB。
单步运行:当工作流处于调试状态,停留在某一节点时,单击“单步运行”,工作流可自动运行至下一个节点。 运行到下一断点:当工作流处于调试状态,停留在某一节点时,单击“运行到下一断点”,工作流可自动运行至下一个断点。如果后续不存在断点,工作流会自动运行至结束,或者在运行出错的节点停止,并展示错误信息。
config”路径中得到“core-site.xml”、“hdfs-site.xml”文件。 生成MRS Hive配置文件。 将上述获取到的文件放到一个新的目录下,并打包成zip文件,所有文件位于zip文件的根目录下。 文件名只能由英文字母或数字组成,长度不超过255个字符。 文件大小不超过2MB。
数据集成任务 MRS Hive目标端写入时出现数据乱码 MRS Hive写入时数据全部写在第一个字段里 目标端任务报任务运行超时 MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes