检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
任务基本配置 表1 任务基本配置参数说明 参数 说明 任务名称 请输入任务名称 描述 请输入对本任务的描述。 配置“源端和目标端配置”。 当源端和目标端均为Kafka时: 图3 源端和目标端配置 源端类型:Kafka 目标端类型:Kafka 规格(QPS):选择为2000、5000、9000、15000或>20000。
项目和企业项目 项目 IAM中的项目用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。用户拥有的资源必须挂载在项目下,项目可以是一个部门或者项目组。一个账户中可以创建多个项目。 企业项目 企业管理中的企业项目是对多个资源进行分组和管理,在目标区域中同一
权限对云服务进行操作。 权限根据授权的精细程度,分为角色和策略。角色以服务为粒度,是IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。策略以API接口为粒度进行权限拆分,授权更加精细,可以精确到某个操作、资源和条件,能够满足企业对权限最小化的安全管控要求。 如果您要
背景信息 事件流作为一种更为实时、轻量和高效的端到端的流式数据处理通道,对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标。源端分布式消息Kafka版生产的消息可以通过事件流这个通道被路由到目标端的分布式消息Kafka版,无需定义事件网格。详情请参见事件流概述。 父主题:
描述 请输入对本作业的描述。 单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 “源数据”和“目标数据”中选择好Kafka实例后,单击“测试连通性”,检查通过后,进入步骤6。 图1 源数据和目标数据配置 表2 源数据和目标数据配置参数说明 参数 说明 配置类型 默认为“Kafka实例”。
本章节介绍如何通过事件网格服务的事件流功能实现分布式消息服务Kafka版实例间的数据同步。 基于EventGrid事件订阅和Function实现OBS桶数据同步 本章节介绍如何通过事件网格服务的事件订阅和函数工作流服务实现OBS桶的数据同步。 基于Serverless版事件流实现RocketMQ推送事件至函数工作流服务
单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 图1 源数据和目标数据配置 表2 源数据和目标数据配置参数说明 参数 说明 配置类型 默认为“Rocketmq实例”。 说明: 配置类型根据实例类型变更。 实例别名 请输入实例别名。 说明: 用于标识源端和目标端实例,
先停用事件流作业,再单击操作列“修改配置”按钮,进入“基础配置”页面,此处只能修改“作业名称”和“描述”。 单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 图1 源数据和目标数据配置 表1 源数据目标数据配置参数是否支持修改说明 参数 是否支持修改 配置类型 否。
事件订阅将事件源、事件通道和事件目标绑定在一起,通过事件规则将事件源发出的事件路由到事件目标。 一个订阅最多关联五个事件目标。 发布区域:华北-北京四、华东-上海一、华东-上海二 创建事件订阅 事件流 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。
incident:表示比操作失败更严重的情况,例如引起其他故障等。 企业项目ID:输入企业项目ID。 访问密钥ID:输入访问密钥ID(包含临时访问凭证和永久访问密钥)。 时间范围:可选择查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 您可以参考云审
网络管理 事件网格提供网络管理能力,包括目标连接和访问端点: 目标连接:用户通过目标连接来连接Webhook。 访问端点:用户通过访问端点推送自定义事件。 事件监控 事件网格实现了对事件订阅和事件通道的监控,可查询事件投递和事件接入的监控信息。
管理工作。 用户 由账号在IAM中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。 在我的凭证下,您可以查看账号ID和用户ID。通常在调用API的鉴权过程中,您需要用到账号、用户和密码等信息。 区域:指云资源所在的物理位置,同一区域内可用区间内网互通,不同区域间内
按需计费EG资源生命周期 避免和处理欠费 您在欠费后需要及时充值,详细操作请参见账户充值。 相关事件不再使用,您可以将它们删除,避免不必要的扣费。 您可以在“费用中心 > 总览”页面设置“可用额度预警”功能。当可用额度、通用代金券和现金券的总额度低于预警阈值时,系统自动发送短信和邮件提醒。当产生欠费后,请您及时充值使可用额度大于0。
最大长度:16384 表3 请求Body参数 参数 是否必选 参数类型 描述 name 是 String 目标连接名称,租户下唯一,由字母、数字、点、下划线和中划线组成,必须以字母或数字开头,不能为default 最小长度:1 最大长度:128 description 否 String 目标连接描述
事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。过滤规则必须和匹配的事件具有相同的结构。 本章节介绍过滤规则和事件匹配时的规则,以及构成过滤规则的参数:运算操作符、条件表达式和匹配字段。 匹配规则 过滤规则和事件匹配时,需要遵循以下规则: 顶级匹配字段只支持source、type、subject、data。
端增加授权配置,以提高安全性。 当请求头和值校验不通过时,是否加密选项置灰无法选择。 key(请求头):由大小写英文字母和中划线组成,且必须以大小写字母开头和结尾,最大长度256个字符。 value:由大小写英文字符、中划线、下划线、空格和特殊字符“~!@#$%^&*()=+|[{}];:'"
端增加授权配置,以提高安全性。 当请求头和值校验不通过时,是否加密选项置灰无法选择。 key(请求头):由大小写英文字母和中划线组成,且必须以大小写字母开头和结尾,最大长度256个字符。 value:由大小写英文字符、中划线、下划线、空格和特殊字符“~!@#$%^&*()=+|[{}];:'"
Service,简称OBS)作为云服务事件源将产生的云服务事件发送到事件网格,事件规则对云服务事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。 已获取OBS和函数工作流的权限。 步骤一:创建事件目标(创建函数) 登录函数工作流控制台。 在左侧导航栏选择“函数
在左侧导航栏选择“事件流 > Serverless版事件流”,右上角单击“创建Serverless版事件流”。 左上角单击,配置事件流名称和描述,完成后单击“确定”。 配置Kafka事件源。 单击“事件源”,右侧弹出“事件源”弹窗。 事件提供方选择“分布式消息服务 Kafka版”。
按需计费是一种先使用再付费的计费模式,适用于无需任何预付款或长期承诺的用户。本文将介绍按需计费EG的计费规则。 适用场景 按需计费适用于事件网格对事件进行过滤、路由和转化。 适用计费项 事件网格实际费用是由事件流入的数量构成,计费项按需计费说明请参见表1。 表1 计费项说明 计费项 说明 请求次数 在您使