检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请输入1000到900000之间的整数。 消息类型 默认为普通消息。 消费线程数 请输入20到64之间的整数。 批量消费最大消息数 请输入1到32之间的整数。 单击“下一步”,进入规则配置页面,规则配置可参考过滤规则参数说明。 图2 规则配置 单击“下一步”完成规则配置,您可以参考路由到函数工作流,继续配置事件流的事件目标。
请输入客户端SDK上传到OBS的地址。 说明: 客户端SDK上传到OBS的地址获取方式可参考常见问题。 消费超时时间(毫秒) 请输入1000到900000之间的整数。 消息类型 请选择普通消息。 消费线程数 请输入20到64之间的整数。 批量消费最大消息数 请输入1到32之间的整数。 批量消费最大等待时长(秒)
创建自定义事件源失败的原因? 创建分布式消息服务RabbitMQ版或分布式消息服务RocketMQ版事件源其状态为“创建失败”或“异常”,可能是以下原因导致: 未创建私网访问端点。 检查是否创建所需私网访问端点,其VPC及子网需要与RabbitMQ或RocketMQ实例配置相同,具体步骤,请参考创建私网访问端点。
EG实例支持变更计费模式吗? EG实例当前不支持计费模式相互变更。 旧版EG实例仅支持包年/包月计费,新版EG实例支持套餐包计费和按需计费,当套餐包到期后,将会以按需计费的方式继续使用。 父主题: 计费FAQ
基于Serverless版事件流实现Kafka实例之间的数据同步 本文介绍如何应用事件网格EventGrid的Serverless版事件流功能实现分布式消息服务Kafka版实例间的数据同步。 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。
L证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs.zip”的文件。 参考创建桶,创建一个OBS桶,桶的区域与Kafka实例区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 最新版的事件流支持私有桶获取证书。 参考上传文件,在桶的根目录下上传“kafka-certs
支持地域 支持在分布式消息服务Kafka版之间创建事件流的地域有:华东-上海一、华东-上海二、华北-北京四、华南-广州、亚太-新加坡、拉美-墨西哥城二。 父主题: 基于Serverless版事件流实现Kafka实例之间的数据同步
输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。
户所能访问的项目,以及所能操作的资源。具体步骤可参考创建用户组并授权。 创建企业项目并授权 创建企业项目 进入管理控制台页面,右上方选择“企业 > 项目管理”,进入企业项目管理页面。单击“创建企业项目”,完成企业项目的创建。 开通了企业项目的客户,或者权限为企业主账号的客户才可以
前提条件 已开通事件网格服务并授权。 已购买Kafka实例。 已创建分布式消息Kafka版类型的目标连接,具体方式请参考目标连接。 单条消息不超过256KB。 公测期间无商用SLA承诺。 当前暂不支持跨Region、Kafka-OBS(规划中)。 云上云下、跨云厂商需用户侧拉专线。
确保创建的RocketMQ实例和配置RocketMQ事件源二者的“ACL访问控制”开关状态保持一致。 tag 请输入tag。 消费超时时间(毫秒) 请输入1000到900000之间的整数。 消费方式 请选择“并发消费”或“顺序消费”。 消费线程数 请输入20到64之间的整数。 批量消费最大消息数
购买RCU时套餐包,当月未使用完的RCU时下个月是否可以继续使用? 不可以,上个生效月RCU时余量不可以转结到下个生效月。 父主题: 计费FAQ
8 请下载1.4.0版本的 Java SDK 将jar包打包成zip文件 参考创建桶,创建一个OBS桶,桶的区域与EG服务的区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 参考上传文件,在桶的根目录下上传打包的ZIP文件。 在OBS中单击上传的对象,可以复制链接地址,此地址即为客户端SDK地址。
事件规则 事件规则概述 过滤规则参数说明 过滤规则示例 事件内容转换
在函数服务的监控中查看代码执行详情 在“函数列表”中找到进行数据同步的函数: 图1 函数列表 单击监控中对应的请求查看代码日志: 图2 代码日志 父主题: 实施步骤
返回专享版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 图6 Kafka事件流同步进展详情 表4 参数说明 参数名称 说明 Topic名称 创建Kafka实例时的Topic。 分区数 创建Topic时设置的分区数,分区数越大消费的并发度越大。
订阅目标ID name String 订阅的事件目标名称 provider_type String 订阅的事件目标的提供方类型 connection_id String 订阅的事件目标使用的目标链接ID 最大长度:64 detail Object 订阅的事件目标参数列表 transform
订阅目标ID name String 订阅的事件目标名称 provider_type String 订阅的事件目标的提供方类型 connection_id String 订阅的事件目标使用的目标链接ID 最大长度:64 detail Object 订阅的事件目标参数列表 transform
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间