检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
L证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs.zip”的文件。 参考创建桶,创建一个OBS桶,桶的区域与Kafka实例区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 最新版的事件流支持私有桶获取证书。 参考上传文件,在桶的根目录下上传“kafka-certs
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
在事件追踪中查看事件投递信息 在EG控制台界面,单击“事件通道”中对应的事件通道的“事件轨迹”可以看到该事件的投递详情和事件详情: 界面入口: 图1 界面入口 事件详情: 图2 事件详情 事件轨迹: 图3 事件轨迹 父主题: 实施步骤
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。
前提条件 业务有自己的源Kafka和目标Kafka。 源Kafka和目标Kafka实例支持的版本:目前支持2.7及以上,后续支持版本会持续更新。 源Kafka和目标Kafka实例的规格、存储空间需保持一致。 确保vpc、子网、kafka等资源充足。 确保源端和目标端实例与用户创建事件流集群时选择的VPC网络互通。
RocketMQ同步RocketMQ 当前仅支持华南-广州。 前提条件 业务有自己的源RocketMQ和目标RocketMQ。 源RocketMQ和目标RocketMQ实例支持的版本:4.x、5.x。 源RocketMQ和目标RocketMQ实例的规格、Broker数量、存储空间需保持一致。 确保vpc、子网、RocketMQ等资源充足。
本文介绍如何在事件网格EventGrid控制台管理Schema,包含创建、查看和删除Schema等操作。 前提条件 云产品官方事件源的事件对应的Schema只支持在控制台上查看Schema详情和Schema版本详情,不支持创建、修改和删除。 操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件模型”,进入“事件模型”页面。
过滤规则参数说明 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。过滤规则必须和匹配的事件具有相同的结构。 本章节介绍过滤规则和事件匹配时的规则,以及构成过滤规则的参数:运算操作符、条件表达式和匹配字段。 匹配规则 过滤规则和事件匹配时,需要遵循以下规则:
事件网格实现了对事件订阅和事件通道的监控,用户无需任何配置,即可查询事件投递和事件接入的监控信息。 操作步骤 登录管理控制台。 在管理控制台左上角单击,选择区域。 在管理控制台左上角单击,选择“应用中间件 > 事件网格”,进入事件网格页面。 在“事件订阅”页面,单击订阅名称所在行的“监控”,查看事件投递监控数据。
Serverless版事件流概述 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 图1 事件流示意图 EG事件流目前处于公测阶段,欢迎您试用和体验相关的功能。 父主题: 事件流
检查源端和目标端RocketMQ实例的版本是否一致,版本不一致则提示告警。 原因:源端实例和目标端实例的版本不一致,请检查源端实例和目标端实例的版本。 解决方式:检查配置专享版事件流作业的第二步,即“源和目标对象配置”页面中配置的源端和目标端RocketMQ实例的版本是否一致
检查事件流集群创建页面中配置的vpc和子网是否与目标端Kafka实例网络畅通。 检查配置专享版事件流作业的第二步,即“源和目标对象配置”页面中配置的目标端Kafka实例的用户名和密码是否正确。 源端和目标端实例规格检查 检查源端和目标端Kafka实例的规格是否匹配。 原因:源端和目标端Kafk
支持CloudEvents SDK和API。 高并发&高可用 支持千万级事件并发。 服务可用性99.99%,采用分布式集群化部署,具备极强的容灾能力。 安全可靠 对接统一身份认证服务、云日志服务、云监控服务和云审计服务等安全管理服务,全方位保护事件的存储与访问。 持久化数据支持磁盘和用户指定密钥加密,进一步提高数据的安全性。
事件流创建成功后,支持修改事件流的名称、描述、状态、事件源和事件目标。 修改事件流的名称和描述 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 在待修改描述信息的事件流所在行,单击“配置”,进入事件流详情页。 单击事件流名称旁的编辑图标,弹出“配置名称和描述”弹窗。 修改名称和描述,单击“确定”,完成修改。
String 租户项目ID channel_id 是 String 指定查询的事件通道ID 表2 Query参数 参数 是否必选 参数类型 描述 enterprise_project_id 否 String 企业项目id 请求参数 表3 请求Header参数 参数 是否必选 参数类型
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
事件路由公测期间免费。 如果源端kafka和目标端kafka在不同vpc里,但是他们的broker地址存在重叠,这种情况任务也会失败,规避方式是让用户用一个新的vpc打通其中一个kafka的网络,保障源端和目标端的地址不重叠。 创建任务成功后,会生成mm2开头的Topic,此为运行任务资源所