检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
终端节点 终端节点(Endpoint)即调用API的请求地址,不同服务不同区域的终端节点不同,您可以从地区和终端节点中查询所有服务的终端节点。 父主题: 使用前必读
APIC是否支持多后端节点方案? 通过负载通道支持多后端节点。一个负载通道中可以添加多个弹性云服务器。 父主题: 服务集成
实例场景下,两个ABM服务互相做为级联节点。如下图所示,假设存在节点A(非ABM服务),节点B(ABM服务),节点C(非ABM服务),节点D(ABM服务)。节点D和节点B通过集群管理相互注册地址。使用扩展采集器将节点A地址注册到节点B上。使用扩展采集器将节点C地址注册到节点D上。通过自定义数据源,节点B可以采
“数据拆分”组件将传入该节点的数据按照指定的表达式进行拆分,并将拆分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据。 配置参数
API到MySQL的定时任务时会出现源端报“connect timeout”错误 原因分析 数据面有6个节点,其中两个节点ping不通API的IP。 解决方案 属于网络问题,需要找VPC定位。 父主题: 数据集成任务
“分支判断”处理器用于创建条件分支,以决定后续节点的执行逻辑。用户需要在“分支判断”节点与其后续相邻节点的连线上配置各分支的条件。 约束与限制 一个“分支判断”节点中,如果存在多个相同的“满足当前条件时”类型的表达式,最终将执行最先创建的分支上的步骤。 一个“分支判断”节点中,只允许存在一个“不满足其他条件时”类型的分支。
“数据筛选”组件对传入该组件的数据按照指定的表达式进行筛选,并将筛选出的结果通过节点变量传递给后续节点。通常“数据筛选”组件会作为“数据拆分”组件的后续步骤以配合使用。 配置参数 参数 说明 表达式 数据筛选的表达式。 使用表达式对数据进行筛选,并传递给后续节点。例如数据拆分出的多个数据块为{"id":1}和{
变量修改 “变量修改”处理器用于修改前置“变量赋值”节点创建的变量的值。一个“变量修改”节点中可以更新多个变量。 配置参数 参数 说明 选择变量 选择前置“变量赋值”处理器中创建的变量。 变量值 填写修改后的变量值。变量值可以是一个常量,如“hello world”,也可以使用表达式引用前序步骤的变量,例如
增加的形式来添加字段。导入的文件目前主要支持json,xml和csv格式导入。 如果后续节点想要引用“数据映射”处理器的输出数据,可通过${节点id|payload.xxx}的形式来引用。节点id可通过单击“数据映射”处理器获取到。 目的端-数据格式为XML样例 当目的端数据源,
填写网卡名称,请根据边缘节点网卡名称实际情况填写,默认使用eth0。所有边缘节点网卡名称请保持一致。 可使用ip a命令查看具体的网卡。 开启边缘节点代理 暂时无需开启。 边缘节点代理地址 仅当“开启边缘节点代理”打开时需要填写。 填写边缘节点的代理地址。支持HTTP和SOCKS5两种代理,格式如下:
operation”错误 原因分析 HDFS集群节点都绑定了EIP,在创建MRS Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。
行后续节点。 超时时间(ms) 并行处理过程的最长执行时间,如果超过该时间后,仍有未执行完成的分支任务,则该分支的任务将被丢弃,且最终的合并结果中不会包含该分支。 超时时间为0时,表示不设置超时时间,将等待所有分支任务执行完成。 “并行处理”节点的分支名称,需在后续相邻节点的连线上配置。
变量赋值 “变量赋值”处理器用于创建变量,后续步骤中可使用这些变量。一个“变量赋值”节点中可以创建多个变量。 配置参数 参数 说明 变量名 填写变量的名称。 变量类型 选择变量的类型,目前支持字符串、整数、长整数、小数、布尔和对象。 变量值 填写变量的值。变量值可以是一个常量,如“hello
件所在节点网络互通。 操作步骤 确认SHUBAO组件所在节点。 登录ROMA Connect控制台,在左侧导航栏选择“Site实例”。 在要监控日志的Site协同版实例上,单击站点名称,打开站点信息弹窗。 在弹窗中单击边缘节点的名称,进入该边缘节点的详细信息页面。 在节点信息页面
获取项目ID的接口为“GET https://{Endpoint}/v3/projects/”,其中{Endpoint}为IAM的终端节点,可以从地区和终端节点获取。接口的认证鉴权请参见认证鉴权。 响应示例如下,其中projects下的“id”即为项目ID。 { "projects":
当前仅支持从3VM的基础版规格变更为4VM的专业版规格。 再次单击“规格升级”,系统将自动创建边缘节点。 边缘节点创建完成后,单击“下载边缘节点配置文件”下载包含边缘节点密钥等信息的配置文件。 备份下载的边缘节点配置文件中的“node.tar.gz”文件到本地。 如果用户侧虚拟机出现故障需要重置时,则需要使用备份的“node
应用中,作为源端节点。 单击源端数据源节点进行配置,选择对应数据源。 如果无可用数据源,可单击“添加数据源”进行添加,具体请参考数据源管理。 添加目标端节点。 在左侧的“基础组件”中拖拽“集成应用”至编排区域。 参考步骤3添加目标端数据源集成应用。 添加处理器节点。 在左侧的“处
split_index 上一个数据拆分节点,在数据拆分时当前数据块的索引,从0开始。 split_size 上一个数据拆分节点的数据拆分数量。 split_complete 上一个数据拆分节点,数据拆分是否完成。 节点变量 上一个节点的执行结果,可以作为节点变量,被后续节点进行引用,如Open
部署在VPC下的应用是否可以调用API? 默认部署在VPC下的应用可以调用API。如果域名解析失败,则参考怎样切换内网DNS,在当前终端节点上配置DNS服务器。配置完成后,部署在VPC下的应用可以调用API。 父主题: 服务集成
filebeat.inputs: - type: filestream # id需要替换为数字,不同SHUBAO组件所在节点之间相互唯一。例如SHUBAO组件所在节点有3个,则id可分别配置为site_log_filebeat_01,site_log_filebeat_02,site_log_filebeat_03