检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
密码:填写密码 默认密码:确认密码 单击“立即购买”,完成Kafka实例的创建。 创建Topic 登录分布式消息服务Kafka版控制台,选择Kafka实例所在的区域。 在“Kafka专享版”页面,单击已创建的Kafka实例的名称,进入实例详情页面。 在“Topic管理”页签,单击“创建T
方案概述 本文介绍如何通过事件网格服务的事件订阅和函数服务实现OBS桶的数据同步。 方案架构 本实践事件订阅架构图如下所示: 图1 事件订阅架构图 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。 父主题:
已开通事件网格服务并授权。 已开通函数服务并授权。 已开通OBS服务并授权。 已在OBS开通白名单(联系OBS服务)。 实践流程 创建事件订阅和事件路由流程如下图所示: 图1 流程图 父主题: 基于EventGrid事件订阅和Function实现OBS桶数据同步
进入新建的函数详情页。 在“代码”页签,代码选择“上传自ZIP文件”,上传样例代码中的程序包。 在“设置 > 环境变量”页签,输入环境信息,完成后单击“保存” 表1 参数说明 参数 说明 obs_endpoint index.py文件中定义的存放输出图片的OBS桶的地址参数,值obs
自定义事件发送流程 本章节介绍自定义事件发送的整个流程。 将自定义事件源产生的自定义事件发送到事件网格,事件规则对自定义事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。 已获取函数工作流的权限。 步骤一:创建自定义通道 登录事件网格控制台。
SASL认证机制 枚举值: SCRAM-SHA-512 PLAIN ssl_certificate_url String SASL证书地址,配置的obs地址 最小长度:1 最大长度:512 ssl_certificate_pwd String SASL证书密码 最小长度:1 最大长度:256
SASL认证机制 枚举值: SCRAM-SHA-512 PLAIN ssl_certificate_url 否 String SASL证书地址,配置的obs地址 最小长度:1 最大长度:512 ssl_certificate_pwd 否 String SASL证书密码 最小长度:1 最大长度:256
SASL认证机制 枚举值: SCRAM-SHA-512 PLAIN ssl_certificate_url 否 String SASL证书地址,配置的obs地址 最小长度:1 最大长度:512 ssl_certificate_pwd 否 String SASL证书密码 最小长度:1 最大长度:256
自定义事件是否支持批量发送?该如何封装? 支持。 事件网格支持以对象数组封装的方式进行批量事件发送,其中数组中每个元素都需要遵循CloudEvents V1.0标准格式要求。 更多详情请参见CloudEvents SDK。
方案概述 本文介绍如何通过事件网格服务的事件订阅功能将OBS应用事件源产生的事件路由至分布式消息服务Kafka版。 方案架构 本实践事件订阅架构图如下所示: 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。
在事件追踪中查看事件投递信息 在EG控制台界面,单击“事件通道”中对应的事件通道的“事件轨迹”可以看到该事件的投递详情和事件详情: 界面入口: 图1 界面入口 事件详情: 图2 事件详情 事件轨迹: 图3 事件轨迹 父主题: 实施步骤
过滤规则参数说明 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。过滤规则必须和匹配的事件具有相同的结构。 本章节介绍过滤规则和事件匹配时的规则,以及构成过滤规则的参数:运算操作符、条件表达式和匹配字段。 匹配规则 过滤规则和事件匹配时,需要遵循以下规则:
操作流程 前提条件 进行本实践操作需要提前完成的事项: 已开通事件网格服务并授权。 已创建虚拟私有云和子网。 已创建安全组。 实践流程 创建事件订阅和事件路由流程如下图所示: 父主题: 基于事件订阅将OBS应用事件源消息路由至分布式消息服务Kafka版
已开通事件网格服务并授权。 已购买Kafka实例。 已创建分布式消息Kafka版类型的目标连接,具体方式请参考目标连接。 单条消息不超过256KB。 公测期间无商用SLA承诺。 当前暂不支持跨Region、Kafka-OBS(规划中)。 云上云下、跨云厂商需用户侧拉专线。 相关监控指标 2023年9月30日上线。
请输入客户端SDK上传到OBS的地址。 说明: 客户端SDK上传到OBS的地址获取方式可参考常见问题。 消费超时时间(毫秒) 请输入1000到900000之间的整数。 消息类型 请选择普通消息。 消费线程数 请输入20到64之间的整数。 批量消费最大消息数 请输入1到32之间的整数。 批量消费最大等待时长(秒)
error_info ErrorInfo object vpc_id String 待连接的VPC ID subnet_id String 待连接的子网ID agency String 私网目标连接使用的用户委托名称 flavor flavor object 规格 type String
error_info ErrorInfo object vpc_id String 待连接的VPC ID subnet_id String 待连接的子网ID agency String 私网目标连接使用的用户委托名称 flavor flavor object 规格 type String
如果源端kafka和目标端kafka在不同vpc里,但是他们的broker地址存在重叠,这种情况任务也会失败,规避方式是让用户用一个新的vpc打通其中一个kafka的网络,保障源端和目标端的地址不重叠。 创建任务成功后,会生成mm2开头的Topic,此为运行任务资源所需,请勿删除,若删除此任务后,则Topic可删除。
配置如下目标连接参数。更多创建Kafka目标连接参数的详细介绍,请参考创建目标连接。 类型:选择“分布式消息服务 Kafka版” 名称:kafka-connect 实例:选择“eg-kafka” SASL_SSL 认证机制:SCRAM-SHA-512 用户名:kafka实例的用户名“kafka-name”,
单账号跟踪的事件可以通过云审计控制台查询。多账号的事件只能在账号自己的事件列表页面去查看,或者到组织追踪器配置的OBS桶中查看,也可以到组织追踪器配置的CTS/system日志流下面去查看。 用户通过云审计控制台只能查询最近7天的操作记录。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志