检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持CloudEvents SDK和API。 高并发&高可用 支持千万级事件并发。 服务可用性99.99%,采用分布式集群化部署,具备极强的容灾能力。 安全可靠 对接统一身份认证服务、云日志服务、云监控服务和云审计服务等安全管理服务,全方位保护事件的存储与访问。 持久化数据支持磁盘和用户指定密钥加密,进一步提高数据的安全性。
跨账号事件发送流程 本章节介绍跨账号事件发送的整个流程。 将账号A产生的事件发送到账号B,事件规则对自定义事件进行过滤和转换,通过转换后的事件触发事件目标。 前提条件 已开通事件网格服务并授权。 创建账号A和账号B。 账号A和账号B必须同地域。 步骤一:账号B创建事件通道 登录账号B事件网格控制台。
可选择“事件源和事件类型”和“投递状态和订阅名称”。 事件ID 输入事件ID。 单击“事件轨迹”,查看事件轨迹及事件接收、事件投递详情。 图1 查看事件轨迹 单击“事件ID”,可查看事件详情如图2所示。 图2 事件详情 投递失败的事件详情可在72小时内查询到,投递成功的事件详情72小时内无法保证一定能查询到。
、跨云、云下云上中间件间形成灾备关系。支持正向和反向的长期单向数据同步,提供云内正、反向切换等容灾特性。 特点:异地远距离传输优化,围绕灾备提供特性,不同于业界基于简单的数据同步形成方案。 ETL 实现不同系统间关键业务的数据持续性的实时流动,支持数据加工,支持异构同步,支持长期单向同步。
检查事件流集群创建页面中配置的vpc和子网是否与目标端Kafka实例网络畅通。 检查配置专享版事件流作业的第二步,即“源和目标对象配置”页面中配置的目标端Kafka实例的用户名和密码是否正确。 源端和目标端实例规格检查 检查源端和目标端Kafka实例的规格是否匹配。 原因:源端和目标端Kafk
开启后OBS会对事件的对象名进行编码。 过滤规则 输入事件过滤规则。 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。如果需要了解更多过滤规则的信息,请参考过滤规则参数说明和过滤规则示例。 如果“事件源”选择“OBS应用事件源”,需用户的华为云账号添加“Tenant
事件流创建成功后,支持修改事件流的名称、描述、状态、事件源和事件目标。 修改事件流的名称和描述 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 在待修改描述信息的事件流所在行,单击“配置”,进入事件流详情页。 单击事件流名称旁的编辑图标,弹出“配置名称和描述”弹窗。 修改名称和描述,单击“确定”,完成修改。
事件路由公测期间免费。 如果源端kafka和目标端kafka在不同vpc里,但是他们的broker地址存在重叠,这种情况任务也会失败,规避方式是让用户用一个新的vpc打通其中一个kafka的网络,保障源端和目标端的地址不重叠。 创建任务成功后,会生成mm2开头的Topic,此为运行任务资源所
本章节介绍华为云服务事件发送的整个流程。 华为云对象存储服务(Object Storage Service,简称OBS)作为云服务事件源将产生的云服务事件发送到事件网格,事件规则对云服务事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。
基于Serverless版事件流实现Kafka实例之间的数据同步 本章节介绍如何通过事件网格服务的事件流功能实现分布式消息服务Kafka版实例间的数据同步。 基于EventGrid事件订阅和Function实现OBS桶数据同步 本章节介绍如何通过事件网格服务的事件订阅和函数工作流服务实现OBS桶的数据同步。 基于S
单击“确定”,完成自定义事件源的创建。 创建成功后,在“自定义事件源”页签,查看创建的事件源。 如果需要修改自定义事件源的描述信息,单击待修改事件源后的“编辑”,在弹出的对话框中编辑描述及相关参数信息。 如果需要查看自定义事件源的信息,单击待查看信息的事件源名称,在弹出的对话框中查看自定义事件源信息。
事件规则概述 事件规则用于过滤和转换事件。 过滤:事件网格在事件订阅中通过配置过滤规则过滤事件,并将过滤后的事件路由到事件目标。关于过滤规则的更多信息,请参考过滤规则参数说明和过滤规则示例。 转换:事件网格在事件订阅中通过配置类型对事件内容进行转换,将CloudEvents标准事
事件网格作为一种Serverless的事件总线服务,支持接入多种类型的事件源和事件目标,提供事件过滤路由的能力。 事件源 事件源是事件的来源,负责生产事件。事件网格支持以下事件源: 华为云服务事件源:华为云服务作为事件源,华为云服务包含弹性云服务器、对象存储服务和云容器引擎等等。 自定义事件源:
消息队列RabbitMQ版中的实例名称。 用户名 RabbitMQ实例的用户名。 密码 RabbitMQ实例的密码。 Vhost RabbitMQ实例的虚拟主机。 Queue RabbitMQ实例的队列。 单击“确定”,完成自定义事件源的创建。 创建成功后,在“自定义事件源”页签,查看创建的事件源。
输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。
次数是2000万次、事件B累计执行次数是100万次、事件C累计执行次数1000万次,那么10月份中事件A、B和C总共产生多少费用? 计费构成分析 因为事件A、B和C有不同的执行次数,因此需要分段计算费用,具体明细如表1所示。 表1 计费明细 计费项 计费明细 总费用 请求总次数费用
EG实例支持变更计费模式吗? EG实例当前不支持计费模式相互变更。 旧版EG实例仅支持包年/包月计费,新版EG实例支持套餐包计费和按需计费,当套餐包到期后,将会以按需计费的方式继续使用。 父主题: 计费FAQ
操作流程 前提条件 进行本实践操作需要提前完成的事项: 已开通事件网格服务并授权。 已创建虚拟私有云和子网。 已创建安全组。 实践流程 创建事件订阅和事件路由流程如下图所示: 父主题: 基于事件订阅将OBS应用事件源消息路由至分布式消息服务Kafka版
费用账单 您可以在“费用中心 > 账单管理”查看事件网格的费用账单,以了解事件网格在某个时间段的使用量和计费信息。 账单上报周期 事件网格会按天结算周期上报使用量到计费系统进行结算,具体扣费规则可以参考按需产品周期结算说明。
您可以在事件订阅中通过配置事件过滤规则来筛选最终路由到事件目标的事件。 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。过滤规则必须和匹配的事件具有相同的结构。 关于事件过滤规则的更多信息,请参见过滤规则参数说明。