检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持的监控指标 功能说明 本章节定义了事件通道上报云监控服务的监控指标的监控指标列表和维度定义,您可以通过云监控服务的管理控制台来检索事件通道产生的监控指标和告警信息,也可以通过事件网格EG控制台提供的“监控”页面来检索事件通道产生的监控指标和告警信息。 监控指标 表1 监控指标说明
支持的监控指标 功能说明 本章节定义了事件流上报云监控服务的监控指标的监控指标列表和维度定义,您可以通过云监控服务的管理控制台来检索事件流产生的监控指标和告警信息,也可以通过事件网格EG控制台提供的“监控”页面来检索事件流产生的监控指标和告警信息。 监控指标 表1 监控指标说明 指标ID
事件发布失败的原因? 事件发布失败,可能是以下原因导致: 接口无访问权限。 检查AK/SK是否正确,如果需要重新获取AK/SK,请参考获取AK/SK。 请求鉴权失败。 检查发布事件的请求方法、请求地址和请求体与利用验签算法生成签名时的参数是否一致。 资源不存在。 请检查事件通道、
支持的监控指标 功能说明 本章节定义了事件订阅上报云监控服务的监控指标的监控指标列表和维度定义,您可以通过云监控服务的管理控制台来检索事件订阅产生的监控指标和告警信息,也可以通过事件网格EG控制台提供的“监控”页面来检索事件订阅产生的监控指标和告警信息。 监控指标 表1 监控指标说明
开头,长度不超过64个字符; 变量值表达式支持常量或JsonPath表达式,字符串长度不超过1024个字符。 最大长度:1024 template 否 String 变量类型规则时,规则内容的模板定义,支持对已定义变量的引用。 最大长度:2048 表13 rule_config 参数
单击右侧“过滤”图标,进行查询。 表1 高级搜索条目参数说明 参数名称 说明 时间范围 选择事件发布时间范围。 查询类型 可选择“事件源和事件类型”和“投递状态和订阅名称”。 事件ID 输入事件ID。 单击“事件轨迹”,查看事件轨迹及事件接收、事件投递详情。 图1 查看事件轨迹 单击“事件ID”,可查看事件详情如图2所示。
开头,长度不超过64个字符; 变量值表达式支持常量或JsonPath表达式,字符串长度不超过1024个字符。 最大长度:1024 template 否 String 变量类型规则时,规则内容的模板定义,支持对已定义变量的引用。 最大长度:2048 表13 rule_config 参数
单击“创建目标连接”,弹出“创建目标连接”对话框。 首次创建目标连接时,系统会自动弹出创建委托授权界面,需要您创建授权委托,详情请查看授权委托。 配置如下目标连接参数。更多创建Kafka目标连接参数的详细介绍,请参考创建目标连接。 类型:选择“分布式消息服务 Kafka版” 名称:kafka-connect
返回专业版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 图4 Kafka事件流同步进展详情 表4 参数说明 参数名称 说明 Topic名称 创建Kafka实例时的Topic。 分区数 创建Topic时设置的分区数,分区数越大消费的并发度越大。
Kafka实例会自动创建输入的消费组,详情请参见查看Kafka消费组信息。 Kafka实例已创建消费组时,此处输入创建好的消费组名称即可,详情请参见创建Kafka消费组。 并发数 输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能
创建自定义事件源失败的原因? 创建分布式消息服务RabbitMQ版或分布式消息服务RocketMQ版事件源其状态为“创建失败”或“异常”,可能是以下原因导致: 未创建私网访问端点。 检查是否创建所需私网访问端点,其VPC及子网需要与RabbitMQ或RocketMQ实例配置相同,具体步骤,请参考创建私网访问端点。
基于Serverless版事件流实现Kafka实例之间的数据同步 本文介绍如何应用事件网格EventGrid的Serverless版事件流功能实现分布式消息服务Kafka版实例间的数据同步。 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。
L证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs.zip”的文件。 参考创建桶,创建一个OBS桶,桶的区域与Kafka实例区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 最新版的事件流支持私有桶获取证书。 参考上传文件,在桶的根目录下上传“kafka-certs
计费FAQ EG实例支持变更计费模式吗? 购买RCU时套餐包,当月未使用完的RCU时下个月是否可以继续使用?
单击“确定”,完成自定义事件源的创建。 创建成功后,在“自定义事件源”页签,查看创建的事件源。 如果需要修改自定义事件源的描述信息,单击待修改事件源后的“编辑”,在弹出的对话框中编辑描述及相关参数信息。 如果需要查看自定义事件源的信息,单击待查看信息的事件源名称,在弹出的对话框中查看自定义事件源信息。
支持地域 支持在分布式消息服务Kafka版之间创建事件流的地域有:华东-上海一、华东-上海二、华北-北京四、华南-广州、亚太-新加坡、拉美-墨西哥城二。 父主题: 基于Serverless版事件流实现Kafka实例之间的数据同步
事件网格持续增加新的功能,将不可避免对现有接口有所调整,比如增加响应参数。 为了减少接口变更带来的影响,除了事件网格自身尽量做到接口向下兼容的同时,用户在使用过程中,应当接受出现返回内容(JSON格式)含有未使用的参数和值的现象,即能够正常忽略未使用的参数和值。 父主题: 使用前必读
对权限最小化的安全管控要求。 如果您要允许或是禁止某个接口的操作权限,请使用策略。 账号具备所有接口的调用权限,如果使用账号下的IAM用户发起API请求时,该IAM用户必须具备调用该接口所需的权限,否则,API请求将调用失败。每个接口所需要的权限,与各个接口所对应的授权项相对应,
前提条件 已开通事件网格服务并授权。 已购买Kafka实例。 已创建分布式消息Kafka版类型的目标连接,具体方式请参考目标连接。 单条消息不超过256KB。 公测期间无商用SLA承诺。 当前暂不支持跨Region、Kafka-OBS(规划中)。 云上云下、跨云厂商需用户侧拉专线。
、跨云、云下云上中间件间形成灾备关系。支持正向和反向的长期单向数据同步,提供云内正、反向切换等容灾特性。 特点:异地远距离传输优化,围绕灾备提供特性,不同于业界基于简单的数据同步形成方案。 ETL 实现不同系统间关键业务的数据持续性的实时流动,支持数据加工,支持异构同步,支持长期单向同步。