检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
终端节点 终端节点(Endpoint)即调用API的请求地址,不同服务不同区域的终端节点不同,您可以从地区和终端节点中查询所有服务的终端节点。 父主题: 使用前必读
切换API版本 功能介绍 API每次发布时,会基于当前的API定义生成一个版本。版本记录了API发布时的各种定义及状态。 多个版本之间可以进行随意切换。但一个API在一个环境上,只能有一个版本生效。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API E
APIC是否支持多后端节点方案? 通过负载通道支持多后端节点。一个负载通道中可以添加多个弹性云服务器。 父主题: 服务集成
API到MySQL的定时任务时会出现源端报“connect timeout”错误 原因分析 数据面有6个节点,其中两个节点ping不通API的IP。 解决方案 属于网络问题,需要找VPC定位。 父主题: 数据集成任务
点B上。使用扩展采集器将节点C地址注册到节点D上。通过自定义数据源,节点B可以采集节点C的模型数据,节点D可以采集节点A的模型数据,下面以节点B采集节点C的模型数据介绍操作步骤。 图1 集群管理级联流程示意图 前提条件 节点C已使用扩展采集器注册到节点D上。 操作步骤 登录ROMA
部署在VPC下的应用是否可以调用API? 默认部署在VPC下的应用可以调用API。如果域名解析失败,则参考怎样切换内网DNS,在当前终端节点上配置DNS服务器。配置完成后,部署在VPC下的应用可以调用API。 父主题: 服务集成
部署Filebeat和ELK 部署Filebeat 登录SHUBAO组件所在节点,切换root用户。 执行以下命令对filebeat.yml文件进行授权。 cd /filebeat sudo chown root filebeat.yml 执行以下命令启动Filebeat。 docker-compose
件所在节点网络互通。 操作步骤 确认SHUBAO组件所在节点。 登录ROMA Connect控制台,在左侧导航栏选择“Site实例”。 在要监控日志的Site协同版实例上,单击站点名称,打开站点信息弹窗。 在弹窗中单击边缘节点的名称,进入该边缘节点的详细信息页面。 在节点信息页面
filebeat |_ log |_ docker-compose.yml |_ filebeat.yml 登录SHUBAO组件所在节点,切换root用户,执行以下命令创建Filebeat相关目录和配置文件。 用户可自定义配置文件所在路径,此处以在根目录下创建filebeat目录为例进行说明。
规格变更操作 变更站点规格 登录ROMA Connect控制台,在左侧导航栏选择“Site实例”。 在“Site实例”页面单击要变更规格实例上的“更多”,选择“规格变更”。 确认变更规格后单击“规格升级”。 当前仅支持从3VM的基础版规格变更为4VM的专业版规格。 再次单击“规格升级”,系统将自动创建边缘节点。
增加的形式来添加字段。导入的文件目前主要支持json,xml和csv格式导入。 如果后续节点想要引用“数据映射”处理器的输出数据,可通过${节点id|payload.xxx}的形式来引用。节点id可通过单击“数据映射”处理器获取到。 目的端-数据格式为XML样例 当目的端数据源,
应用中,作为源端节点。 单击源端数据源节点进行配置,选择对应数据源。 如果无可用数据源,可单击“添加数据源”进行添加,具体请参考数据源管理。 添加目标端节点。 在左侧的“基础组件”中拖拽“集成应用”至编排区域。 参考步骤3添加目标端数据源集成应用。 添加处理器节点。 在左侧的“处
“数据拆分”组件将传入该节点的数据按照指定的表达式进行拆分,并将拆分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据。 配置参数
“分支判断”处理器用于创建条件分支,以决定后续节点的执行逻辑。用户需要在“分支判断”节点与其后续相邻节点的连线上配置各分支的条件。 约束与限制 一个“分支判断”节点中,如果存在多个相同的“满足当前条件时”类型的表达式,最终将执行最先创建的分支上的步骤。 一个“分支判断”节点中,只允许存在一个“不满足其他条件时”类型的分支。
“数据筛选”组件对传入该组件的数据按照指定的表达式进行筛选,并将筛选出的结果通过节点变量传递给后续节点。通常“数据筛选”组件会作为“数据拆分”组件的后续步骤以配合使用。 配置参数 参数 说明 表达式 数据筛选的表达式。 使用表达式对数据进行筛选,并传递给后续节点。例如数据拆分出的多个数据块为{"id":1}和{
变量修改 “变量修改”处理器用于修改前置“变量赋值”节点创建的变量的值。一个“变量修改”节点中可以更新多个变量。 配置参数 参数 说明 选择变量 选择前置“变量赋值”处理器中创建的变量。 变量值 填写修改后的变量值。变量值可以是一个常量,如“hello world”,也可以使用表达式引用前序步骤的变量,例如
行后续节点。 超时时间(ms) 并行处理过程的最长执行时间,如果超过该时间后,仍有未执行完成的分支任务,则该分支的任务将被丢弃,且最终的合并结果中不会包含该分支。 超时时间为0时,表示不设置超时时间,将等待所有分支任务执行完成。 “并行处理”节点的分支名称,需在后续相邻节点的连线上配置。
规格变更说明 方案概述 ROMA Site协同版实例规格变更目前仅支持实例从3VM的基础版扩容为4VM的专业版,即增加一台同规格虚拟机。各集成组件强制依赖实例,不可单独变更。 ROMA Site协同版实例规格变更包含站点规格变更和实例规格变更两部分。其中实例规格变更时,又可分为新站点容器扩容和已有容器升级两种场景。
填写网卡名称,请根据边缘节点网卡名称实际情况填写,默认使用eth0。所有边缘节点网卡名称请保持一致。 可使用ip a命令查看具体的网卡。 开启边缘节点代理 暂时无需开启。 边缘节点代理地址 仅当“开启边缘节点代理”打开时需要填写。 填写边缘节点的代理地址。支持HTTP和SOCKS5两种代理,格式如下:
operation”错误 原因分析 HDFS集群节点都绑定了EIP,在创建MRS Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。