检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
L证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs.zip”的文件。 参考创建桶,创建一个OBS桶,桶的区域与Kafka实例区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 最新版的事件流支持私有桶获取证书。 参考上传文件,在桶的根目录下上传“kafka-certs
单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 在需要查看的事件左侧,单击展开该记录的详细信息。 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
在“事件通道”页面,单击通道名称所在行的“监控”,查看事件接入监控数据。 支持查看单个事件源的监控数据。 支持查看最近1小时、最近4小时、最近24小时、最近7天和自定义时间的监控数据。 支持选择周期(1分钟、5分钟、20分钟)和方法(平均值、最大值、最小值)查看监控数据。 父主题: 事件监控
近1小时的所有事件流事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的事件流事件数据。 图1 事件流监控 事件流监控支持自定义时间跨度,可自定义选择查询的时间区间。 开启“自动刷新”后,指标数据会每5s刷新一次。
1小时的所有接入事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的接入事件数据。 图1 事件通道监控 事件通道监控支持自定义时间跨度,单击,可自定义选择查询的时间区间。 开启“自动刷新”后,指标数据会每5s刷新一次。
控指标页面,默认展示近1小时的所有投递事件数据。 您也可以根据需要选择“近1小时”“近3小时”“近12小时”“近24小时”“近7天”“近30天”,分别查看不同时段的投递事件数据。 图1 事件订阅监控 事件订阅监控支持自定义时间跨度,可自定义选择查询的时间区间。 事件订阅支持多目标
4.0版本的 Java SDK 将jar包打包成zip文件 参考创建桶,创建一个OBS桶,桶的区域与EG服务的区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 参考上传文件,在桶的根目录下上传打包的ZIP文件。 在OBS中单击上传的对象,可以复制链接地址,此地址即为客户端SDK地址。
在函数服务的监控中查看代码执行详情 在“函数列表”中找到进行数据同步的函数: 图1 函数列表 单击监控中对应的请求查看代码日志: 图2 代码日志 父主题: 实施步骤
拟私有云和子网的目标连接来连接私网webhook。 支持添加分布式消息服务Kafka版作为目标连接。 Webhook就是客户端或者代理客户端提供一个webhook的url,服务器有新数据时就往url推送数据,客户端通过探测随时更新数据。 约束与限制 Webhook的url,需支持tls1
在OBS目标桶查看对象是否已完成同步 该数据同步功能默认同步后路径一致,在目标桶桶目录下查看文件是否同步成功: 图1 目标桶目录 父主题: 实施步骤
云审计服务支持的EG操作列表 通过云审计服务,您可以记录与事件网格相关的操作事件,便于日后的查询、审计和回溯。 表1 云审计服务支持的事件网格操作列表 操作名称 资源类型 事件名称 创建自定义事件通道 channel CreateChannel 更新自定义事件通道 channel
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
事件路由基于SmartConnect实现能力同步数据的同步。 约束与限制 事件路由公测期间免费。 如果源端kafka和目标端kafka在不同vpc里,但是他们的broker地址存在重叠,这种情况任务也会失败,规避方式是让用户用一个新的vpc打通其中一个kafka的网络,保障源端和目标端的地址不重叠。 事件路由
String 订阅源ID name String 订阅的事件源名称 provider_type String 订阅的事件源的提供方类型 detail Object 订阅的事件源参数列表 filter Object 订阅事件源的匹配过滤规则 created_time String 创建时间
返回专业版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 图4 Kafka事件流同步进展详情 表4 参数说明 参数名称 说明 Topic名称 创建Kafka实例时的Topic。 分区数 创建Topic时设置的分区数,分区数越大消费的并发度越大。
查看事件消息 登录分布式消息服务Kafka版控制台,选择Kafka实例所在的区域。 在“Kafka专享版”页面,单击Kafka实例的名称“eg-kafka”,进入实例详情页面。 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称“topic-eg”、分区以及查询方式。
一个资源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See Other 查看其它地址。 使用GET和POST请求查看。
事件发布失败的原因? 事件发布失败,可能是以下原因导致: 接口无访问权限。 检查AK/SK是否正确,如果需要重新获取AK/SK,请参考获取AK/SK。 请求鉴权失败。 检查发布事件的请求方法、请求地址和请求体与利用验签算法生成签名时的参数是否一致。 资源不存在。 请检查事件通道、
事件网格作为一种Serverless的事件总线服务,支持接入多种类型的事件源和事件目标,提供事件过滤路由的能力。 事件源 事件源是事件的来源,负责生产事件。事件网格支持以下事件源: 华为云服务事件源:华为云服务作为事件源,华为云服务包含弹性云服务器、对象存储服务和云容器引擎等等。 自定义事件源:
置Topic的消息类型是其它类型时,则该消息类型的Topic消息将不会被同步。 前提条件 业务有自己的源RocketMQ和目标RocketMQ。 源RocketMQ和目标RocketMQ实例支持的版本:4.x、5.x。 源RocketMQ和目标RocketMQ实例的规格、Broker数量、存储空间需保持一致。