检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
控指标页面,默认展示近1小时的所有投递事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的投递事件数据。 图1 事件订阅监控 事件订阅监控支持自定义时间跨度,可自定义选择查询的时间区间。 事件订阅支持多目标
检查事件流集群创建页面中配置的vpc和子网是否与目标端Kafka实例网络畅通。 检查配置专业版事件流作业的第二步,即“源和目标对象配置”页面中配置的目标端Kafka实例的用户名和密码是否正确。 源端和目标端实例规格检查 检查源端和目标端Kafka实例的规格是否匹配。 原因:源端和目标端Kafk
触发器类型:选择“分布式消息服务(Kafka)”。 实例:选择与死信队列相同的Kafka实例。 主题:选择与死信队列相同的Topic。 批处理大小:每次从Topic消费的消息数量,建议设置为10。 用户名:Kafka实例开启SSL时需要填写。连接Kafka专享版实例的用户名。 密码:Kafka实例开启SSL时需
跨账号事件发送流程 本章节介绍跨账号事件发送的整个流程。 将账号A产生的事件发送到账号B,事件规则对自定义事件进行过滤和转换,通过转换后的事件触发事件目标。 前提条件 已开通事件网格服务并授权。 创建账号A和账号B。 账号A和账号B必须同地域。 步骤一:账号B创建事件通道 登录账号B事件网格控制台。
PASSWORD:IAM 用户密码。 DOMAIN_NAME:IAM domain用户名。 IAM_ENDPOINT:IAM的终端节点,您可以从地区和终端节点中查询服务的终端节点。 PROJECT_ID:即项目ID,参考API凭证,获取项目ID。 CHANNEL_ID:参考收集信息,获取通道ID。
项目和企业项目 项目 IAM中的项目用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。用户拥有的资源必须挂载在项目下,项目可以是一个部门或者项目组。一个账户中可以创建多个项目。 企业项目 企业管理中的企业项目是对多个资源进行分组和管理,在目标区域中同一
当消费点位选择自定义时,需要配置日期时间。 消费超时时间(毫秒) 请输入1000到900000之间的整数。 消息类型 默认为普通消息。 消费线程数 请输入20到64之间的整数。 批量消费最大消息数 请输入1到32之间的整数。 单击“下一步”,进入规则配置页面,规则配置可参考过滤规则参数说明。 图2
事件流创建成功后,支持修改事件流的名称、描述、状态、事件源和事件目标。 修改事件流的名称和描述 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 在待修改描述信息的事件流所在行,单击“配置”,进入事件流详情页。 单击事件流名称旁的编辑图标,弹出“配置名称和描述”弹窗。 修改名称和描述,单击“确定”,完成修改。
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
同账号下是下拉列表选择通道,且不能选择同一通道和default通道。 跨账号输入ID时不能输入同一通道ID和default通道ID,否则事件不通。 如果当前通道没有关联订阅,发布到该通道的消息将无法消费,所以需要新增订阅,下游事件订阅的事件源和上游订阅的事件源名称保持一致,且下游的事件源必须是自定义事件源。
基于Serverless版事件流实现Kafka实例之间的数据同步 本章节介绍如何通过事件网格服务的事件流功能实现分布式消息服务Kafka版实例间的数据同步。 基于EventGrid事件订阅和Function实现OBS桶数据同步 本章节介绍如何通过事件网格服务的事件订阅和函数工作流服务实现OBS桶的数据同步。 基于S
资源和成本规划 本实践涉及到的资源和成本规划,如下表所示。 表1 资源和成本规划 资源 资源说明 数量 费用(元) 虚拟私有云VPC 创建一个虚拟私有云VPC。 1 00.00 虚拟私有云子网 创建一个虚拟私有云子网。 1 00.00 安全组 创建一个安全组。 1 00.00 对象存储服务OBS
本章节介绍华为云服务事件发送的整个流程。 华为云对象存储服务(Object Storage Service,简称OBS)作为云服务事件源将产生的云服务事件发送到事件网格,事件规则对云服务事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。
文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 在需要查看的事件左侧,单击展开该记录的详细信息。 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。 关于事件结构的关键字段详解,请参见《
事件网格支持的监控指标 功能说明 本节定义了事件网格的监控指标和维度,用户可以直接通过事件网格服务管理控制台来查看事件网格产生的监控指标。 监控指标 表1 事件投递监控项 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) num 投递数量 该指标用于统计事件投递的调用总数。
事件发布失败的原因? 事件发布失败,可能是以下原因导致: 接口无访问权限。 检查AK/SK是否正确,如果需要重新获取AK/SK,请参考获取AK/SK。 请求鉴权失败。 检查发布事件的请求方法、请求地址和请求体与利用验签算法生成签名时的参数是否一致。 资源不存在。 请检查事件通道、
L证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs.zip”的文件。 参考创建桶,创建一个OBS桶,桶的区域与Kafka实例区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 最新版的事件流支持私有桶获取证书。 参考上传文件,在桶的根目录下上传“kafka-certs
事件规则概述 事件规则用于过滤和转换事件。 过滤:事件网格在事件订阅中通过配置过滤规则过滤事件,并将过滤后的事件路由到事件目标。关于过滤规则的更多信息,请参考过滤规则参数说明和过滤规则示例。 转换:事件网格在事件订阅中通过配置类型对事件内容进行转换,将CloudEvents标准事
相关概念 事件 状态发生改变的数据记录。 事件源 事件的来源,负责生产事件。 事件目标 事件的处理终端,负责消费事件。 事件通道 事件的中转站,负责接收来自事件源的事件。 事件规则 事件发送到事件网格后,会根据事件规则进行过滤,满足规则的事件才会被路由发送到对应的事件目标。
因目前OBS只对白名单用户开放,请在创建事件订阅前添加OBS白名单。 创建事件订阅时,如果选择的OBS桶有被其他事件订阅调用,请确保当前桶的对象名前缀和后缀与其他事件订阅中配置的对象名前缀和后缀不一致。否则,保存事件订阅时,会报“OBS桶对象名前缀或后缀冲突”错误。 步骤 登录事件网格控制台。