检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查看事件消息 登录分布式消息服务Kafka版控制台,选择Kafka实例所在的区域。 在“Kafka专享版”页面,单击Kafka实例的名称“eg-kafka”,进入实例详情页面。 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称“topic-eg”、分区以及查询方式。
返回函数工作流控制台,左侧导航栏选择“函数 > 函数列表”,单击函数名称进入详情页。 选择“监控 > 日志 > 请求日志”,即可查看从RocketMQ实例推送过来的事件内容。 图4 查看日志
区域:与事件网格所在区域保持一致 桶名称:输入示例如“eg-obs” 默认存储类别:选择“标准存储” 桶策略:选择“私有” 默认加密:不勾选 归档数据直读:选择“关闭” 企业项目:选择“default” 图1 创建桶 配置完成后,单击“立即创建”,根据提示信息完成桶的创建。 父主题: 实施步骤
终端节点 终端节点即调用API的请求地址,不同服务不同区域的终端节点不同,您可以从地区和终端节点中查询服务的终端节点。 父主题: 使用前必读
如果源端和目标端的kafka是同一个实例,则建议配置topic映射,否则可能导致topic中的数据出现循环复制。 Topic映射的名称不能相同。 完成参数配置后单击“立即购买”,完成事件路由创建,创建成功后可在事件路由页面查看任务状态。 事件路由任务创建完成后默认为“未启用”状态,需要单击“启用”按
方案概述 本文介绍如何通过事件网格服务的事件订阅功能将OBS应用事件源产生的事件路由至分布式消息服务Kafka版。 方案架构 本实践事件订阅架构图如下所示: 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。
Serverless版事件流概述 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 图1 事件流示意图 EG事件流目前处于公测阶段,欢迎您试用和体验相关的功能。 父主题: 事件流
表4 事件Body参数 参数 是否必选 参数类型 描述 datacontenttype 否 String 数据内容类型 data 是 Array of Data objects 数据 subject 否 String 主题 specversion 否 String 规格版本 id 是
相关概念 事件 状态发生改变的数据记录。 事件源 事件的来源,负责生产事件。 事件目标 事件的处理终端,负责消费事件。 事件通道 事件的中转站,负责接收来自事件源的事件。 事件规则 事件发送到事件网格后,会根据事件规则进行过滤,满足规则的事件才会被路由发送到对应的事件目标。
快速入门 场景描述 您可以根据业务需要创建一个自定义事件源。 API调用方法请参考如何调用API。 前提条件 已获取IAM的Endpoint,具体请参见地区和终端节点。 已获取事件网格的Endpoint,具体请参见地区和终端节点。 创建自定义事件源 调用创建自定义事件通道接口,创建一个自定义通道。
发布事件 本章节介绍在事件网格控制台如何发布事件。 您可以通过发布事件功能,调试事件订阅中事件源、事件通道、事件目标是否已是连通状态,已配置的事件规则是否生效,事件是否成功发送到事件目标。 前提条件 已创建自定义事件通道 已创建自定义应用事件源 已设置事件目标,并基于上述内容创建事件订阅
路由到分布式消息服务Kafka版 本章节介绍在创建事件流时如何配置分布式消息Kafka为事件目标。 前提条件 已开通分布式消息Kafka作为事件目标。 事件目标kafka不支持自定义证书。 操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流 > Serverless版事件流
创建事件流 本章节指导您如何在事件网格控制台创建事件流。 操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 单击“创建事件流”。 在弹窗中输入事件流名称和描述,单击“确定”,完成事件流名称和描述信息输入。 配置事件源。 单击“事件源”,右侧弹出“事件源”弹窗。
出的事件路由到事件目标。 事件流 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 资源管理 事件网格提供以下资源管理能力: 管理自定义事件源 管理事件通道 管理事件订阅 管理目标连接 管理访问端点 管理事件模型
已经成功将数据写入本地log,但是并没有等待所有follower是否成功写入。如果follower没有成功备份数据,而此时leader又无法提供服务,则消息会丢失。 acks=all:这意味着leader需要等待ISR中所有备份都成功写入日志,只有任何一个备份存活,数据都不会丢失。min
安全可靠 对接统一身份认证服务、云日志服务、云监控服务和云审计服务等安全管理服务,全方位保护事件的存储与访问。 持久化数据支持磁盘和用户指定密钥加密,进一步提高数据的安全性。
Integer 偏移量,表示从此偏移量开始查询,偏移量不能小于0 最小值:0 最大值:100 缺省值:0 limit 否 Integer 每页显示的条目数量,不能小于1或大于1000 最小值:1 最大值:1000 缺省值:15 sort 否 String 指定查询排序 缺省值:created_time:DESC
”页面,此处只能修改“作业名称”和“描述”。 单击“下一步:源和目标对象配置”,进入“源和目标对象配置”页面。 图2 源数据和目标数据配置 表1 源数据目标数据配置参数是否支持修改说明 参数 是否支持修改 配置类型 否。 实例别名 否。 区域 否。 项目 否。 Kafka实例 否。
项目ID获取步骤如下: 登录管理控制台。 鼠标悬停在右上角的用户名,选择下拉列表中的“我的凭证”。 在“API凭证”页面的项目列表中查看项目ID。 图1 查看项目ID 父主题: 附录
SDK 常见问题 了解更多常见问题、案例和解决方案 热门案例 事件网格如何收费? 事件发布失败的原因? 事件目标未被触发的原因? 能否将自定义事件推送到EventGrid? 如何过滤最终传输到事件目标的事件? 如何将自定义的事件内容传输到事件目标? 更多 远程登录 应用容器化改造介绍