检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
自定义事件是否支持批量发送?该如何封装? 支持。 事件网格支持以对象数组封装的方式进行批量事件发送,其中数组中每个元素都需要遵循CloudEvents V1.0标准格式要求。 更多详情请参见CloudEvents SDK。
如何将自定义的事件内容传输到事件目标? 您可以在事件订阅中通过配置事件目标的转换规则来实现将自定义的事件内容传输到事件目标。 EventGrid事件转换目前支持透传、变量、常量三种转换类型。 透传:事件网格不对事件进行转换,将CloudEvents标准事件直接路由到事件目标。 变
如何获取分布式消息服务Kafka实例的SASL证书地址? 用户在创建事件流,配置事件源为分布式消息服务Kafka版实例时,当Kafka实例开启SASL SSL时,需要输入SASL证书地址。 本章节介绍如何获取Kafka实例的SASL证书地址。 操作步骤 下载Kafka实例的SSL证书。
请输入AK。 说明: 如何获取AK/SK,请参考如何获取访问密钥AK/SK。 SK 请输入SK。 桶 请选择/输入OBS桶名称。 转储目录 请输入转储目录。 说明: OBS桶中对象的目录,多级目录用“/”分隔。 时间目录格式 请选择时间目录格式。 说明: 数据将存储在转储目录下的时间目录中,时间目录是按时间格式作为层级的目录。
云服务事件模型 事件模型概述 本文介绍如何在事件网格EventGrid控制台管理Schema,包含创建、查看和删除Schema等操作。 前提条件 云产品官方事件源的事件对应的Schema只支持在控制台上查看Schema详情和Schema版本详情,不支持创建、修改和删除。 操作步骤
8 请下载1.4.0版本的 Java SDK 将jar包打包成zip文件 参考创建桶,创建一个OBS桶,桶的区域与EG服务的区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 参考上传文件,在桶的根目录下上传打包的ZIP文件。 在OBS中单击上传的对象,可以复制链接地址,此地址即为客户端SDK地址。
委托下拉框只会查询出被委托方是事件网格服务的委托。 请确保您选择的委托已被授权的权限包含“functiongraph:function:invoke*”。 配置规则 类型 事件网格将CloudEvents标准事件转换成事件目标可以接受的事件类型。支持以下三种转换类型: 透传:事件
事件轨迹 本章节介绍在事件网格控制台如何追踪事件轨迹。 您可以通过事件轨迹功能,追踪查询72小时内的事件源、事件详情、投递目标及投递状态等相关信息。 事件轨迹当前支持局点:上海一、上海二、北京四、华北-乌兰察布一、华南-广州。 操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件通道”,进入“事件通道”页面。
转换成事件目标可以接受的事件类型。支持以下三种转换类型: 透传:事件网格不对事件进行转换,将原生事件的完整结构直接路由到事件目标。 变量:事件网格EventGrid通过JSONPath从事件中提取参数,然后把这些参数路由到事件目标。 常量:事件只起到触发器的作用,不管事件内容是什么,事件网格都把常量路由到事件目标。
发布事件 本章节介绍在事件网格控制台如何发布事件。 您可以通过发布事件功能,调试事件订阅中事件源、事件通道、事件目标是否已是连通状态,已配置的事件规则是否生效,事件是否成功发送到事件目标。 前提条件 已创建自定义事件通道 已创建自定义应用事件源 已设置事件目标,并基于上述内容创建事件订阅
服务 本文介绍如何通过事件网格服务的事件流功能将RocketMQ产生的事件推送至函数工作流服务。 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。 前提条件 进行本实践操作需要提前完成的事项: 已开通事件网格服务并授权。
输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。
常见问题 了解更多常见问题、案例和解决方案 热门案例 事件网格如何收费? 事件发布失败的原因? 事件目标未被触发的原因? 能否将自定义事件推送到EventGrid? 如何过滤最终传输到事件目标的事件? 如何将自定义的事件内容传输到事件目标? 更多 远程登录 应用容器化改造介绍 应用容器化改造流程
事件通道负责接收来自事件源的事件。 事件网格支持的事件通道如下: 云服务事件通道:由事件网格自动创建、且不可修改的一条默认的云服务事件通道,用于接收云服务事件源产生的事件。云服务事件源产生的事件只能发布到云服务事件通道。 自定义事件通道:您自行创建的事件通道,用于接收自定义事件源产生的事件。 创建自定义事件通道
事件网格提供了REST(Representational State Transfer)风格API,支持您通过HTTPS请求调用,调用方法请参见如何调用API。 父主题: 使用前必读
使用限制 单账号跟踪的事件可以通过云审计控制台查询。多账号的事件只能在账号自己的事件列表页面去查看,或者到组织追踪器配置的OBS桶中查看,也可以到组织追踪器配置的CTS/system日志流下面去查看。 用户通过云审计控制台只能查询最近7天的操作记录。如果需要查询超过7天的操作记录,您必
删除自定义事件通道 本章节介绍在事件网格控制台如何删除自定义事件通道。 操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件通道”,进入“事件通道”页面。 在待删除的自定义事件通道后,单击“删除”,弹出“删除事件通道”对话框。 已关联自定义事件源,或事件订阅的事件通道,无法删除。您需要先解除关联,然后再进行删除操作。
SDK 本章节介绍使用开源的CloudEvents Java SDK发布事件。 前提条件 获取并安装IntelliJ IDEA,如果未安装,请至IntelliJ IDEA官方网站下载。 在pom.xml中加入依赖。如何在Java环境中集成API请求签名的SDK请参考AK/SK签名认证操作指导。
输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。
基于Serverless版事件流实现Kafka实例之间的数据同步 本章节介绍如何通过事件网格服务的事件流功能实现分布式消息服务Kafka版实例间的数据同步。 基于EventGrid事件订阅和Function实现OBS桶数据同步 本章节介绍如何通过事件网格服务的事件订阅和函数工作流服务实现OBS桶的数据同步。 基于S