检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置API的插件策略 配置跨域资源共享策略 配置HTTP响应头管理策略 配置流量控制2.0策略 配置Kafka日志推送策略 配置断路器策略 配置第三方认证策略 配置响应缓存策略 父主题: 服务集成指导
件所在节点网络互通。 操作步骤 确认SHUBAO组件所在节点。 登录ROMA Connect控制台,在左侧导航栏选择“Site实例”。 在要监控日志的Site协同版实例上,单击站点名称,打开站点信息弹窗。 在弹窗中单击边缘节点的名称,进入该边缘节点的详细信息页面。 在节点信息页面
来处理缓存,如果后端不返回Cache-Control头,则默认缓存,使用策略中配置的ttl字段作为缓存超期时间。 APIC默认不处理客户端的Cache-Control头,可以通过策略中的client_cache_control来进行配置。 Cache-Control拓展缓存指令不
“数据拆分”组件将传入该节点的数据按照指定的表达式进行拆分,并将拆分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据。 配置参数
日志盘(G) 系统架构 Glibc版本 网络带宽性能 IEF边缘节点(个) 基础版 3 1 >=16 >=64 >=350 >=100 >=300 >=200 仅支持x86_64架构,具体支持的OS请参见IEF边缘节点规格规格要求中x86_64架构所支持的OS。 版本必须高于2.17。
API到MySQL的定时任务时会出现源端报“connect timeout”错误 原因分析 数据面有6个节点,其中两个节点ping不通API的IP。 解决方案 属于网络问题,需要找VPC定位。 父主题: 数据集成任务
“数据筛选”组件对传入该组件的数据按照指定的表达式进行筛选,并将筛选出的结果通过节点变量传递给后续节点。通常“数据筛选”组件会作为“数据拆分”组件的后续步骤以配合使用。 配置参数 参数 说明 表达式 数据筛选的表达式。 使用表达式对数据进行筛选,并传递给后续节点。例如数据拆分出的多个数据块为{"id":1}和{
“分支判断”处理器用于创建条件分支,以决定后续节点的执行逻辑。用户需要在“分支判断”节点与其后续相邻节点的连线上配置各分支的条件。 约束与限制 一个“分支判断”节点中,如果存在多个相同的“满足当前条件时”类型的表达式,最终将执行最先创建的分支上的步骤。 一个“分支判断”节点中,只允许存在一个“不满足其他条件时”类型的分支。
一,由腾讯公司推出。QQ邮箱提供了可靠的电子邮件服务,包括邮件收发、管理和安全防护等功能。用户可以通过QQ邮箱发送和接收邮件,通过邮件附件共享文件,进行日程安排和备忘录管理,还可以设置邮件过滤和垃圾邮件过滤等安全保护措施。 前提条件 已获取QQ邮箱授权码,具体操作请参考配置QQ邮箱授权码。
增加的形式来添加字段。导入的文件目前主要支持json,xml和csv格式导入。 如果后续节点想要引用“数据映射”处理器的输出数据,可通过${节点id|payload.xxx}的形式来引用。节点id可通过单击“数据映射”处理器获取到。 目的端-数据格式为XML样例 当目的端数据源,
变量修改 “变量修改”处理器用于修改前置“变量赋值”节点创建的变量的值。一个“变量修改”节点中可以更新多个变量。 配置参数 参数 说明 选择变量 选择前置“变量赋值”处理器中创建的变量。 变量值 填写修改后的变量值。变量值可以是一个常量,如“hello world”,也可以使用表达式引用前序步骤的变量,例如
operation”错误 原因分析 HDFS集群节点都绑定了EIP,在创建MRS Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。
同步数据库和缓存数据 概述 当模型采集中采集任务执行失败时,采集日志显示数据库和缓存不一致时,可以从数据源和任务的维度,执行同步任务,使数据库和缓存保持一致,解决采集任务异常。 前提条件 已完成采集技术模型和录入业务模型。 操作步骤 登录ROMA Connect,在“实例”页面单
行后续节点。 超时时间(ms) 并行处理过程的最长执行时间,如果超过该时间后,仍有未执行完成的分支任务,则该分支的任务将被丢弃,且最终的合并结果中不会包含该分支。 超时时间为0时,表示不设置超时时间,将等待所有分支任务执行完成。 “并行处理”节点的分支名称,需在后续相邻节点的连线上配置。
变量赋值 “变量赋值”处理器用于创建变量,后续步骤中可使用这些变量。一个“变量赋值”节点中可以创建多个变量。 配置参数 参数 说明 变量名 填写变量的名称。 变量类型 选择变量的类型,目前支持字符串、整数、长整数、小数、布尔和对象。 变量值 填写变量的值。变量值可以是一个常量,如“hello
资源规划 Filebeat部署在APIC的SHUBAO组件所在节点上,ELK部署在独立服务器中。在搭建Filebeat+ELK系统前,需要对Filebeat和ELK所需的服务器资源进行评估,以准备相关服务器资源。 API调用日志文件最大为200MB,达到上限后会自动生成新的日志文
获取项目ID的接口为“GET https://{Endpoint}/v3/projects/”,其中{Endpoint}为IAM的终端节点,可以从地区和终端节点获取。接口的认证鉴权请参见认证鉴权。 响应示例如下,其中projects下的“id”即为项目ID。 { "projects":
255字符。 说明: 中文字符必须为UTF-8或者unicode编码。 plugin_type String 插件类型 cors:跨域资源共享 set_resp_headers:HTTP响应头管理 kafka_log:Kafka日志推送 breaker:断路器 rate_limit:
应用中,作为源端节点。 单击源端数据源节点进行配置,选择对应数据源。 如果无可用数据源,可单击“添加数据源”进行添加,具体请参考数据源管理。 添加目标端节点。 在左侧的“基础组件”中拖拽“集成应用”至编排区域。 参考步骤3添加目标端数据源集成应用。 添加处理器节点。 在左侧的“处
03:18 API到Kafka的数据集成 应用与数据集成平台 ROMA Connect 介绍企业数据以API形式开放共享 02:53 企业数据以API形式开放共享