检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实施步骤 创建OBS源桶和目标桶 创建FG函数 创建EG事件订阅 发送OBS事件 在事件追踪中查看事件投递信息 在函数服务的监控中查看代码执行详情 在OBS目标桶查看对象是否已完成同步 父主题: 基于EventGrid事件订阅和Function实现OBS桶数据同步
事件网格支持的监控指标 功能说明 本节定义了事件网格的监控指标和维度,用户可以直接通过事件网格服务管理控制台来查看事件网格产生的监控指标。 监控指标 表1 事件投递监控项 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) num 投递数量 该指标用于统计事件投递的调用总数。
发送OBS事件 目前支持的事件类型。 图1 支持类型 事件类型中描述的事件(如上传、覆盖),在OBS中触发后,根据事件订阅中事件类型的选择,可对该事件进行路由传递。例如在桶名为test_zzy的OBS源桶中上传“test930.png”文件,目录为“success”。 图2 OBS桶列表
变量:从CloudEvents标准事件中获取变量值,将变量值按照模板定义的格式路由到事件目标。 常量:事件只能触发事件目标,但是不会传送事件内容到事件目标,事件网格将您设置的常量路由到事件目标。 关于转换规则的更多示例信息,请参考事件内容转换。
份认证。 AK(Access Key ID):访问密钥ID。与私有访问密钥关联的唯一标识符;访问密钥ID和私有访问密钥一起使用,对请求进行加密签名。 SK(Secret Access Key):与访问密钥ID结合使用的密钥,对请求进行加密签名,可标识发送方,并防止请求被修改。 使
py文件中定义的存放输出图片的OBS桶参数值your-bucket-output, 创建OBS桶中创建的存放输出图片OBS桶。 添加依赖包。 示例代码依赖pillow包,需要通过依赖包的形式进行引入,步骤如下: 进入创建的函数的详情页,在“代码”页签,单击页面最底部的“添加依赖包”。
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
对象名前缀、对象名后缀填写时,对象文件格式必须都符合才能触发事件,当前后缀为空时,任意对象文件都符合。 创建事件订阅时,如果选择的OBS桶有被其他事件订阅调用,请确保当前桶的对象名前缀和后缀与其他事件订阅中配置的对象名前缀和后缀不一致。否则,保存事件订阅时,会报“OBS桶对象名前缀或后缀冲突”错误。 步骤 登录事件网格控制台。
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
基于Serverless版事件流实现Kafka实例之间的数据同步 本文介绍如何应用事件网格EventGrid的Serverless版事件流功能实现分布式消息服务Kafka版实例间的数据同步。 当前事件网格服务仅支持华北-北京四、华北-乌兰察布一、华东-上海一、华东-上海二、华南-广州、亚太-新加坡、拉美-墨西哥城二。
支持地域 支持在分布式消息服务Kafka版之间创建事件流的地域有:华东-上海一、华东-上海二、华北-北京四、华南-广州、亚太-新加坡、拉美-墨西哥城二。 父主题: 基于Serverless版事件流实现Kafka实例之间的数据同步
场景二:云服务事件流转 事件网格作为华为云的标准事件中心,可以实现各个云服务之间的联动。 云服务作为事件源或者事件目标部署在华为云的无服务器(Serverless)应用平台上,应用推送业务实时事件到事件网格,事件网格对事件进行过滤、路由和转化,从而触发订阅事件的云服务。 图2 云服务事件流转
预设使用场景,让数据同步更少配置、更简单。 网络与安全 支持SSL等加密和认证机制,让数据同步更安全。 多种同步模式 支持对象选择、全量+增量同步和多种压缩模式,满足不同同步诉求。 预检查 预检查支持提前识别同步是否满足成功条件,提供失败原因、失败详情和处理建议信息。用户可以根据失败信息和处理建议的指导,调整环境,以确保同步成功。
输入并发数,输入值范围1~1000。 建议并发数与选择的Topic的分区数保持一致,如果不一致可能会影响消息消费速率。当您选择Topic时,如果并发数为空会读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。
背景信息 事件流作为一种更为实时、轻量和高效的端到端的流式数据处理通道,对事件源产生的事件实时拉取、过滤及转换,并路由至事件目标。源端分布式消息Kafka版生产的消息可以通过事件流这个通道被路由到目标端的分布式消息Kafka版,无需定义事件网格。详情请参见事件流概述。 父主题:
在事件追踪中查看事件投递信息 在EG控制台界面,单击“事件通道”中对应的事件通道的“事件轨迹”可以看到该事件的投递详情和事件详情: 界面入口: 图1 界面入口 事件详情: 图2 事件详情 事件轨迹: 图3 事件轨迹 父主题: 实施步骤
前提条件 已开通事件网格服务并授权。 已购买Kafka实例。 已创建分布式消息Kafka版类型的目标连接,具体方式请参考目标连接。 单条消息不超过256KB。 公测期间无商用SLA承诺。 当前暂不支持跨Region、Kafka-OBS(规划中)。 云上云下、跨云厂商需用户侧拉专线。
文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 在需要查看的事件左侧,单击展开该记录的详细信息。 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。 关于事件结构的关键字段详解,请参见《
Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。
购买RCU时套餐包,当月未使用完的RCU时下个月是否可以继续使用? 不可以,上个生效月RCU时余量不可以转结到下个生效月。 父主题: 计费FAQ