检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
生产顺序性和消费顺序性组合 生产顺序 消费顺序 顺序性效果 设置消息组,保证消息顺序发送。 顺序消费 按照消息组粒度,严格保证消息顺序。 同一消息组内的消息的消费顺序和发送顺序完全一致。 设置消息组,保证消息顺序发送。 并发消费 并发消费,尽可能按时间顺序处理。 未设置消息组,消息乱序发送。 顺序消费 按队列存储粒度,严格顺序。
查看事件消息 登录分布式消息服务Kafka版控制台,选择Kafka实例所在的区域。 在“Kafka专享版”页面,单击Kafka实例的名称“eg-kafka”,进入实例详情页面。 选择“消息查询”页签,在消息页签页面,设置查询的Topic名称“topic-eg”、分区以及查询方式。 单击“搜索”,查询消息。
置Topic的消息类型是其它类型时,则该消息类型的Topic消息将不会被同步。 前提条件 业务有自己的源RocketMQ和目标RocketMQ。 源RocketMQ和目标RocketMQ实例支持的版本:4.x、5.x。 源RocketMQ和目标RocketMQ实例的规格、Broker数量、存储空间需保持一致。
自定义事件发送流程 本章节介绍自定义事件发送的整个流程。 将自定义事件源产生的自定义事件发送到事件网格,事件规则对自定义事件进行过滤和转换,通过转换后的事件触发事件目标(即函数工作流服务中的函数)。 前提条件 已开通事件网格服务并授权。 已获取函数工作流的权限。 步骤一:创建自定义通道 登录事件网格控制台。
返回专业版事件流作业列表,单击刚才创建的事件流名称,进入“基本信息”页面,选择“作业管理”,可以查看“同步进展详情”。 图4 Kafka事件流同步进展详情 表4 参数说明 参数名称 说明 Topic名称 创建Kafka实例时的Topic。 分区数 创建Topic时设置的分区数,分区数越大消费的并发度越大。
一个资源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See Other 查看其它地址。 使用GET和POST请求查看。
扣产生的按需费用。请参考为什么买了资源包,按需产品还会产生扣费?识别产生按需计费的原因,并重新选择正确的资源包或保证账户中的余额充足。 未购买资源包,在按需计费模式下账户的余额不足。 欠费影响 当您的账号因自动扣费导致欠费后,账号将变成欠费状态。欠费后,事件网格不会立即停止服务,
同结果,请严格按照需求选择消费方式。1、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:顺序消费,实际消息处理结果:按照消息组粒度,严格保证消息顺序。 同一消息组内的消息的消费顺序和发送顺序完全一致。2、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:并发消费,实际消
同结果,请严格按照需求选择消费方式。1、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:顺序消费,实际消息处理结果:按照消息组粒度,严格保证消息顺序。 同一消息组内的消息的消费顺序和发送顺序完全一致。2、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:并发消费,实际消
同结果,请严格按照需求选择消费方式。1、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:顺序消费,实际消息处理结果:按照消息组粒度,严格保证消息顺序。 同一消息组内的消息的消费顺序和发送顺序完全一致。2、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:并发消费,实际消
同结果,请严格按照需求选择消费方式。1、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:顺序消费,实际消息处理结果:按照消息组粒度,严格保证消息顺序。 同一消息组内的消息的消费顺序和发送顺序完全一致。2、生产顺序为:设置消息组,保证消息顺序发送。消费方式为:并发消费,实际消
事件通道负责接收来自事件源的事件。 事件网格支持的事件通道如下: 云服务事件通道:由事件网格自动创建、且不可修改的一条默认的云服务事件通道,用于接收云服务事件源产生的事件。云服务事件源产生的事件只能发布到云服务事件通道。 自定义事件通道:您自行创建的事件通道,用于接收自定义事件源产生的事件。 约束与限制
了数据备份的可用性。支持选项: acks=0:表示producer不需要等待任何确认收到的信息,副本将立即加到socket buffer并认为已经发送。没有任何保障可以保证此种情况下server已经成功接收数据,同时重试配置不会发生作用(因为客户端不知道是否失败)回馈的offset会总是设置为-1。
读取您选择的Topic的分区数作为并发数。 消费点位 选择消费点位。 最新点位:将会从消息队列的最新消息开始消费。 最早点位:将会从消息队列的最早消息开始消费。 SASL认证机制 当Kafka实例开启SASL SSL时可见,选择SASL认证机制。 PLAIN:一种简单的用户名密码校验机制。
对于获取用户Token接口,您可以从接口的请求部分看到所需的请求参数及参数说明。将消息体加入后的请求如下所示,加粗的斜体字段需要根据实际值填写,其中username为用户名,domainname为用户所属的账号名称,********为用户登录密码,xxxxxxxxxxxxxxxxxx为project的名称,如“
事件目标可以处理的类型。 事件网格支持的转换类型如下:透传、变量、常量。 约束与限制 事件网格转换类型为变量时,事件流不支持将源端消息内容中的字段进行转换。 透传 事件网格不对事件进行转换,将CloudEvents标准事件直接路由到事件目标。示例如下: 转换前的事件 转换类型 转换后的事件
error_info ErrorInfo object vpc_id String 待连接的VPC ID subnet_id String 待连接的子网ID agency String 私网目标连接使用的用户委托名称 flavor flavor object 规格 type String
error_info ErrorInfo object vpc_id String 待连接的VPC ID subnet_id String 待连接的子网ID agency String 私网目标连接使用的用户委托名称 flavor flavor object 规格 type String
fuzzy_name 否 String 指定查询的目标连接名称,模糊匹配 instance_id 否 String 指定查询的目标连接,队列的实例id 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。通过调用IA
事件通道负责接收来自事件源的事件。 事件网格支持的事件通道如下: 云服务事件通道:由事件网格自动创建、且不可修改的一条默认的云服务事件通道,用于接收云服务事件源产生的事件。云服务事件源产生的事件只能发布到云服务事件通道。 自定义事件通道:您自行创建的事件通道,用于接收自定义事件源产生的事件。 父主题: