检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
本章节介绍如何获取Kafka实例的SASL证书地址。 操作步骤 下载Kafka实例的SSL证书。 登录分布式消息服务Kafka控制台。 在分布式消息服务Kafka专享版页面,单击Kafka实例。 在实例“基本信息>连接信息”页面,单击SSL证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs
事件内容转换 事件网格通过事件内容转换将CloudEvents标准事件转换成事件目标可以处理的类型。 事件网格支持的转换类型如下:透传、变量、常量。 透传 事件网格不对事件进行转换,将CloudEvents标准事件直接路由到事件目标。示例如下: 转换前的事件 转换类型 转换后的事件
EG实例支持变更计费模式吗? EG实例当前不支持计费模式相互变更。 旧版EG实例仅支持包年/包月计费,新版EG实例支持套餐包计费和按需计费,当套餐包到期后,将会以按需计费的方式继续使用。 父主题: 计费FAQ
常量:将指定的常量作为key值。若选择常量,所有消息将发送至同一分区。 规则配置 类型 变量:data.value 如果需要了解更多转换类型的信息,请参考事件内容转换。 消息推送 批量推送 配置是否开启批量推送,批量推送可帮您批量聚合多个事件。 批量推送条数 推送间隔 开启批量推送可见,每
事件规则用于过滤和转换事件。 过滤:事件网格在事件订阅中通过配置过滤规则过滤事件,并将过滤后的事件路由到事件目标。关于过滤规则的更多信息,请参考过滤规则参数说明和过滤规则示例。 转换:事件网格在事件订阅中通过配置类型对事件内容进行转换,将CloudEvents标准事件转换成事件目标可以
常量:将指定的常量作为key值。若选择常量,所有消息将发送至同一分区。 规则配置 类型 事件网格将CloudEvents标准事件转换成事件目标可以接受的事件类型。支持以下三种转换类型: 透传:事件网格不对事件进行转换,将原生事件的完整结构直接路由到事件目标。 变量:事件网格EventGrid通过JSONPath
如何将自定义的事件内容传输到事件目标? 您可以在事件订阅中通过配置事件目标的转换规则来实现将自定义的事件内容传输到事件目标。 EventGrid事件转换目前支持透传、变量、常量三种转换类型。 透传:事件网格不对事件进行转换,将CloudEvents标准事件直接路由到事件目标。 变量:从Cl
事件流支持配置规则,默认会将消息透传至目标。 事件规则是指事件流转到事件目标之前,将CloudEvents标准事件转换成事件目标可以接受的事件类型。 事件流支持事件过滤和转换,具体规则请参考事件规则。 父主题: 事件流
Array of TransForm objects key的转换规则 connectionId 是 String 目标连接id 表12 TransForm 参数 是否必选 参数类型 描述 type 是 String 转换规则类型 枚举值: ORIGINAL CONSTANT VARIABLE
keyTransform Array of TransForm objects key的转换规则 connectionId String 目标连接id 表15 TransForm 参数 参数类型 描述 type String 转换规则类型 枚举值: ORIGINAL CONSTANT VARIABLE
keyTransform Array of TransForm objects key的转换规则 connectionId String 目标连接id 表13 TransForm 参数 参数类型 描述 type String 转换规则类型 枚举值: ORIGINAL CONSTANT VARIABLE
Array of TransForm objects key的转换规则 connectionId 是 String 目标连接id 表12 TransForm 参数 是否必选 参数类型 描述 type 是 String 转换规则类型 枚举值: ORIGINAL CONSTANT VARIABLE
华为云对象存储服务(Object Storage Service,简称OBS)作为云服务事件源将产生的云服务事件发送到事件网格,事件规则对云服务事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。 已获取OBS和函数工作流的权限。 步骤一:创建事件目标(创建函数)
跨账号事件发送流程 本章节介绍跨账号事件发送的整个流程。 将账号A产生的事件发送到账号B,事件规则对自定义事件进行过滤和转换,通过转换后的事件触发事件目标。 前提条件 已开通事件网格服务并授权。 创建账号A和账号B。 账号A和账号B必须同地域。 步骤一:账号B创建事件通道 登录账号B事件网格控制台。
自定义事件发送流程 本章节介绍自定义事件发送的整个流程。 将自定义事件源产生的自定义事件发送到事件网格,事件规则对自定义事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。 已获取函数工作流的权限。 步骤一:创建自定义通道
分布式消息服务Kafka版 本章节介绍在创建事件流时,如何配置分布式消息服务Kafka版实例为事件源。 前提条件 已在分布式消息服务Kafka版中购买Kafka实例,详情请参见购买Kafka实例。 Kafka实例中的安全组在“入方向规则”中放开Kafka实例的子网网段和端口,详情
Serverless版事件流概述 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 图1 事件流示意图 EG事件流目前处于公测阶段,欢迎您试用和体验相关的功能。 父主题: 事件流
为:“桶名称/转储目录/年/月/日”。 规则配置 类型 事件网格将CloudEvents标准事件转换成事件目标可以接受的事件类型。支持以下三种转换类型: 透传:事件网格不对事件进行转换,将原生事件的完整结构直接路由到事件目标。 变量:事件网格EventGrid通过JSONPath
function:invoke*”。 配置规则 类型 事件网格将CloudEvents标准事件转换成事件目标可以接受的事件类型。支持以下三种转换类型: 透传:事件网格不对事件进行转换,将原生事件的完整结构直接路由到事件目标。 变量:事件网格EventGrid通过JSONPath
背景信息 事件流作为一种更为实时、轻量和高效的端到端的流式数据处理通道,对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标。源端分布式消息Kafka版生产的消息可以通过事件流这个通道被路由到目标端的分布式消息Kafka版,无需定义事件网格。详情请参见事件流概述。 父主题: