检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
所有接入事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的接入事件数据。 图1 事件通道监控 事件通道监控支持自定义时间跨度,单击,可自定义选择查询的时间区间。 开启“自动刷新”后,指标数据会每5s刷新一次。
在“事件订阅”页面,单击订阅名称所在行的“监控”,查看事件投递监控数据。 支持查看单个事件目标的监控数据。 支持查看最近1小时、最近4小时、最近24小时、最近7天和自定义时间的监控数据。 支持选择周期(1分钟、5分钟、20分钟)和方法(平均值、最大值、最小值)查看监控数据。 在“事件通道”页面,单击通道名称所在行的“监控”,查看事件接入监控数据。
的所有事件流事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的事件流事件数据。 图1 事件流监控 事件流监控支持自定义时间跨度,可自定义选择查询的时间区间。 开启“自动刷新”后,指标数据会每5s刷新一次。
控,如不选择,则查看全部监控指标。 开启“自动刷新”后,指标数据会每5s刷新一次。 点击“查看更多指标详情”,可跳转至云监控CES界面。 当“周期”选择为原始值时,监控数据为原始数据;当“周期”选择为具体时间时,监控数据可选择“平均值”、“最大值”、“最小值”、“求和值”、“方差值”的聚合算法。
String 指标数据统计方式 缺省值:AVG 枚举值: AVG MIN MAX period 否 Integer 指标数据统计周期(单位minute) 缺省值:1 start_time 是 Long 获取指标数据起始时间 end_time 否 Long 获取指标数据结束时间 channel_id
String 指标数据统计方式 缺省值:AVG 枚举值: AVG MIN MAX period 否 Integer 指标数据统计周期(单位minute) 缺省值:1 start_time 是 Long 获取指标数据起始时间 end_time 否 Long 获取指标数据结束时间 subscription_id
对话机器人服务 CBS 关系型数据库 RDS 云解析服务的Region级 DNS 存储容灾服务 SDRS 语音通话 VoiceCall 应用性能管理 APM 应用编排服务 AOS 数据接入服务 DIS 数据库安全服务 DBSS 慧眼HiLens HiLens 云数据迁移 CDM 多活高可用服务
基于EventGrid事件订阅和Function实现OBS桶数据同步 方案概述 操作流程 实施步骤
事件流对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标,是一种更为实时、轻量和高效的端到端的流式数据处理场景。 发布区域:华北-北京四、华东-上海一、华东-上海二 事件流 事件 事件是符合特定规范的数据。事件源发布到事件网格的事件必须符合CloudEvents规范。 事件网格支持的事件如下:
基于Serverless版事件流实现Kafka实例之间的数据同步 本文介绍如何应用事件网格EventGrid的Serverless版事件流功能实现分布式消息服务Kafka版实例间的数据同步。 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。
S中触发后,根据事件订阅中事件类型的选择,可对该事件进行路由传递。例如在桶名为test_zzy的OBS源桶中上传“test930.png”文件,目录为“success”。 图2 OBS桶列表 父主题: 实施步骤
在OBS目标桶查看对象是否已完成同步 该数据同步功能默认同步后路径一致,在目标桶桶目录下查看文件是否同步成功: 图1 目标桶目录 父主题: 实施步骤
创建EG事件订阅 约束与限制 对象名前缀、对象名后缀填写时,对象文件格式必须都符合才能触发事件,当前后缀为空时,任意对象文件都符合。 创建事件订阅时,如果选择的OBS桶有被其他事件订阅调用,请确保当前桶的对象名前缀和后缀与其他事件订阅中配置的对象名前缀和后缀不一致。否则,保存事件
事件网格(EventGrid,简称EG)专业版事件流作为易用、稳定、高效的数据同步管道连接不同的系统与服务,支持中间件数据在线实时同步。事件流围绕云中间件,降低了中间件之间数据流通的复杂性,有效地帮助您减少数据传输的成本。适用于上云、跨云、云内跨地域中间件数据搬迁和备份容灾等场景,为企业上云和容灾业务连续性
在函数服务的监控中查看代码执行详情 在“函数列表”中找到进行数据同步的函数: 图1 函数列表 单击监控中对应的请求查看代码日志: 图2 代码日志 父主题: 实施步骤
方案概述 本文介绍如何通过事件网格服务的事件订阅和函数服务实现OBS桶的数据同步。 方案架构 本实践事件订阅架构图如下所示: 图1 事件订阅架构图 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。 父主题:
支持添加分布式消息服务Kafka版作为目标连接。 Webhook就是客户端或者代理客户端提供一个webhook的url,服务器有新数据时就往url推送数据,客户端通过探测随时更新数据。 约束与限制 Webhook的url,需支持tls1.2协议和安全的加密算法。 创建目标连接成功后,不支持修改Kafka实例参数。
进入新建的函数详情页。 在“代码”页签,代码选择“上传自ZIP文件”,上传样例代码中的程序包。 在“设置 > 环境变量”页签,输入环境信息,完成后单击“保存” 表1 参数说明 参数 说明 obs_endpoint index.py文件中定义的存放输出图片的OBS桶的地址参数,值obs.region
在事件列表页面,您还可以导出操作记录文件、刷新列表、设置列表展示信息等。 在搜索框中输入任意关键字,按下Enter键,可以在事件列表搜索符合条件的数据。 单击“导出”按钮,云审计服务会将查询结果以.xlsx格式的表格文件导出,该.xlsx文件包含了本次查询结果的所有事件,且最多导出5000条信息。
SSL时可见,输入SASL证书地址。获取地址请参考如何获取分布式消息服务Kafka实例的SASL证书地址。 必须使用zip压缩包,压缩包内的文件数量不超过两个,压缩包和文件大小均不可超过1M; 压缩包里证书的名称必须是固定的:client.jks。 SASL证书密钥 当Kafka实例开启SASL