检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
前提条件 业务有自己的源Kafka和目标Kafka。 源Kafka和目标Kafka实例支持的版本:目前支持2.7及以上,后续支持版本会持续更新。 源Kafka和目标Kafka实例的规格、存储空间需保持一致。 确保vpc、子网、kafka等资源充足。 确保源端和目标端实例与用户创建事件流集群时选择的VPC网络互通。
过滤规则参数说明 事件源产生的事件与过滤规则进行匹配,匹配成功后事件才会被路由到与过滤规则关联的事件目标。过滤规则必须和匹配的事件具有相同的结构。 本章节介绍过滤规则和事件匹配时的规则,以及构成过滤规则的参数:运算操作符、条件表达式和匹配字段。 匹配规则 过滤规则和事件匹配时,需要遵循以下规则:
本文介绍如何在事件网格EventGrid控制台管理Schema,包含创建、查看和删除Schema等操作。 约束与限制 云产品官方事件源的事件对应的Schema只支持在控制台上查看Schema详情和Schema版本详情,不支持创建、修改和删除。 操作步骤 登录事件网格控制台。 在左侧导航栏选择“事件模型”,进入“事件模型”页面。
置Topic的消息类型是其它类型时,则该消息类型的Topic消息将不会被同步。 前提条件 业务有自己的源RocketMQ和目标RocketMQ。 源RocketMQ和目标RocketMQ实例支持的版本:4.x、5.x。 源RocketMQ和目标RocketMQ实例的规格、Broker数量、存储空间需保持一致。
事件网格实现了对事件订阅和事件通道的监控,用户无需任何配置,即可查询事件投递和事件接入的监控信息。 操作步骤 登录管理控制台。 在管理控制台左上角单击,选择区域。 在管理控制台左上角单击,选择“应用中间件 > 事件网格”,进入事件网格页面。 在“事件订阅”页面,单击订阅名称所在行的“监控”,查看事件投递监控数据。
Serverless版事件流概述 事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 图1 事件流示意图 EG事件流目前处于公测阶段,欢迎您试用和体验相关的功能。 父主题: 事件流
检查源端和目标端RocketMQ实例的版本是否一致,版本不一致则提示告警。 原因:源端实例和目标端实例的版本不一致,请检查源端实例和目标端实例的版本。 解决方式:检查配置专业版事件流作业的第二步,即“源和目标对象配置”页面中配置的源端和目标端RocketMQ实例的版本是否一致
支持CloudEvents SDK和API。 高并发&高可用 支持千万级事件并发。 服务可用性99.99%,采用分布式集群化部署,具备极强的容灾能力。 安全可靠 对接统一身份认证服务、云日志服务、云监控服务和云审计服务等安全管理服务,全方位保护事件的存储与访问。 持久化数据支持磁盘和用户指定密钥加密,进一步提高数据的安全性。
检查事件流集群创建页面中配置的vpc和子网是否与目标端Kafka实例网络畅通。 检查配置专业版事件流作业的第二步,即“源和目标对象配置”页面中配置的目标端Kafka实例的用户名和密码是否正确。 源端和目标端实例规格检查 检查源端和目标端Kafka实例的规格是否匹配。 原因:源端和目标端Kafk
事件流创建成功后,支持修改事件流的名称、描述、状态、事件源和事件目标。 修改事件流的名称和描述 登录事件网格控制台。 在左侧导航栏选择“事件流”,进入“事件流”页面。 在待修改描述信息的事件流所在行,单击“配置”,进入事件流详情页。 单击事件流名称旁的编辑图标,弹出“配置名称和描述”弹窗。 修改名称和描述,单击“确定”,完成修改。
事件路由基于SmartConnect实现能力同步数据的同步。 约束与限制 事件路由公测期间免费。 如果源端kafka和目标端kafka在不同vpc里,但是他们的broker地址存在重叠,这种情况任务也会失败,规避方式是让用户用一个新的vpc打通其中一个kafka的网络,保障源端和目标端的地址不重叠。 事件路由
您可以根据业务需要创建一个自定义事件源。 API调用方法请参考如何调用API。 前提条件 已获取IAM的Endpoint,具体请参见地区和终端节点。 已获取事件网格的Endpoint,具体请参见地区和终端节点。 创建自定义事件源 调用创建自定义事件通道接口,创建一个自定义通道。 POST h
事件规则概述 事件规则用于过滤和转换事件。 过滤:事件网格在事件订阅中通过配置过滤规则过滤事件,并将过滤后的事件路由到事件目标。关于过滤规则的更多信息,请参考过滤规则参数说明和过滤规则示例。 转换:事件网格在事件订阅中通过配置类型对事件内容进行转换,将CloudEvents标准事
因目前OBS只对白名单用户开放,请在创建事件订阅前添加OBS白名单。 创建事件订阅时,如果选择的OBS桶有被其他事件订阅调用,请确保当前桶的对象名前缀和后缀与其他事件订阅中配置的对象名前缀和后缀不一致。否则,保存事件订阅时,会报“OBS桶对象名前缀或后缀冲突”错误。 步骤 登录事件网格控制台。
网络配置。 虚拟私有云:选择已创建的虚拟私有云,如何创建请参见创建虚拟私有云和子网。 子网:选择已创建的子网,如何创建请参见为虚拟私有云创建新的子网。 请确保事件流集群配置的虚拟私有云、子网与Kafka或RocketMQ的源端实例、目标端实例配置的虚拟私有云、子网的网络互通,否则连通性测试不通过。
EG实例支持变更计费模式吗? EG实例当前不支持计费模式相互变更。 旧版EG实例仅支持包年/包月计费,新版EG实例支持套餐包计费和按需计费,当套餐包到期后,将会以按需计费的方式继续使用。 父主题: 计费FAQ
操作流程 前提条件 进行本实践操作需要提前完成的事项: 已开通事件网格服务并授权。 已创建虚拟私有云和子网。 已创建安全组。 实践流程 创建事件订阅和事件路由流程如下图所示: 父主题: 基于事件订阅将OBS应用事件源消息路由至分布式消息服务Kafka版
次数是2000万次、事件B累计执行次数是100万次、事件C累计执行次数1000万次,那么10月份中事件A、B和C总共产生多少费用? 计费构成分析 因为事件A、B和C有不同的执行次数,因此需要分段计算费用,具体明细如表1所示。 表1 计费明细 计费项 计费明细 总费用 请求总次数费用