检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
RocketMQ事件源参数说明 参数名称 说明 配置类型 支持以下两种类型: 选择:选择一个已创建的自定义事件通道。 新建:创建一个新的自定义事件通道。 通道 “配置类型”为“选择”时,在下拉列表中选择一个已创建的自定义事件通道。 “配置类型”为“新建”时,输入事件通道名称和描述信息。 事件源创建成功后,事件通道不支持修改。
CTS”,进入云审计服务页面。 单击左侧导航树的“事件列表”,进入事件列表信息页面。 事件列表支持通过高级搜索来查询对应的操作事件,您可以在筛选器组合一个或多个筛选条件: 事件名称:输入事件的名称。 事件ID:输入事件ID。 资源名称:输入资源的名称,当该事件所涉及的云资源无资源名称或对应的
未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。 414
默认为“Kafka实例”。 说明: 配置类型根据实例类型变更。 实例别名 请输入实例别名。 说明: 用于标识源端和目标端实例,建议同一个源端或目标端实例只设置一个别名。 区域 请选择资源所在区域。 项目 请选择项目。 Kafka实例 请选择Kafka实例。 接入方式 支持“明文接入”或“密文接入”。
开通事件网格服务并授权 使用事件网格服务前,您需要: 已注册华为账号并开通华为云。 当前登录账号拥有使用事件网格的权限。账号权限授权与绑定,请参考创建用户并授权使用EG。 如果您的账号为IAM用户,请先联系华为云账号拥有者为IAM用户授权,然后才能使用事件网格服务。 登录事件网格控制台
”。 在桶列表单击已创建的桶“eg-obs”,进入“对象”页面。 进入待上传的文件夹,单击“上传对象”,系统弹出“上传对象”对话框。 上传一个本地已准备好的文件,单击“上传”。 更多上传对象文件的方法请参考上传对象。 图1 上传对象 父主题: 实施步骤
说明: 目前只能选择与队列类型匹配的目标连接。 Topic 选择Topic。 说明: 如果事件目标与死信队列使用同一个Topic,EG将无法区分事件成功与失败,不推荐您配置同一个Topic。 单击“确定”,完成死信配置。 处理死信队列数据 当数据发送到死信队列后,您可以参考以下方法,来处理死信数据。
Project):自定义策略的授权范围,包括IAM项目与企业项目。授权范围如果同时支持IAM项目和企业项目,表示此授权项对应的自定义策略,可以在IAM和企业管理两个服务中给用户组授权并生效。如果仅支持IAM项目,不支持企业项目,表示仅能在IAM中给用户组授权并生效,如果在企业管理中授权,则该自定义策略
SSL时可见,输入SASL证书地址。获取地址请参考如何获取分布式消息服务Kafka实例的SASL证书地址。 说明: 必须使用zip压缩包,压缩包内的文件数量不超过两个,压缩包和文件大小均不可超过1M; 压缩包里证书的名称必须是固定的:client.jks。 SASL证书被修改时,为保证证书加载生效需区分如下两种情况:
cn/op-help-center/doc/article/67668 请下载1.4.0版本的 Java SDK 将jar包打包成zip文件 参考创建桶,创建一个OBS桶,桶的区域与EG服务的区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 参考上传文件,在桶的根目录下上传打包的ZIP文件。
source 是 EventStreamingSource object 事件源,一个事件流中事件源只有一个 sink 是 EventStreamingSink object 事件目标,一个事件流中只有一个 rule_config 否 rule_config object 事件规则,包括过滤规则和转换规则
最大长度:255 source EventStreamingSource object 事件源,一个事件流中事件源只有一个 sink EventStreamingSink object 事件目标,一个事件流中只有一个 rule_config rule_config object 事件规则,包括过滤规则和转换规则
最大长度:255 source EventStreamingSource object 事件源,一个事件流中事件源只有一个 sink EventStreamingSink object 事件目标,一个事件流中只有一个 rule_config rule_config object 事件规则,包括过滤规则和转换规则
source 是 EventStreamingSource object 事件源,一个事件流中事件源只有一个 sink 是 EventStreamingSink object 事件目标,一个事件流中只有一个 rule_config 否 rule_config object 事件规则,包括过滤规则和转换规则
在实例“基本信息>连接信息”页面,单击SSL证书旁的“下载”。 SSL证书将会下载到本地电脑,名字为“kafka-certs.zip”的文件。 参考创建桶,创建一个OBS桶,桶的区域与Kafka实例区域保持一致,其“桶策略”需为“公共读”或“公共读写”。 最新版的事件流支持私有桶获取证书。 参考上传文
SSL时可见,输入SASL证书地址。获取地址请参考如何获取分布式消息服务Kafka实例的SASL证书地址。 说明: 必须使用zip压缩包,压缩包内的文件数量不超过两个,压缩包和文件大小均不可超过1M; 压缩包里证书的名称必须是固定的:client.jks。 SASL证书密钥 当Kafka实例开启SASL
CloudEvents 参数 是否必选 参数类型 描述 id 是 String 事件唯一标识串,同一个事件来源里必须唯一 source 是 String 事件来源上下文标识串,source+id可以唯一确定一个事件。采用URI-Reference格式,参考https://tools.ietf.
CloudEvents 参数 是否必选 参数类型 描述 id 是 String 事件唯一标识串,同一个事件来源里必须唯一 source 是 String 事件来源上下文标识串,source+id可以唯一确定一个事件。采用URI-Reference格式,参考https://tools.ietf.
而此时leader又无法提供服务,则消息会丢失。 acks=all:这意味着leader需要等待ISR中所有备份都成功写入日志,只有任何一个备份存活,数据都不会丢失。min.insync.replicas指定必须确认写入才能被认为成功的副本的最小数量。 缺省值:1 枚举值: 0
配置事件源。 单击“事件源”,参考图4,设置事件源参数。 表1 自定义事件源参数说明 参数名称 说明 通道 在下拉列表中选择一个已创建的自定义事件通道。 事件源 输入或选择一个已关联自定义事件通道(即“通道配置”中选择的自定义通道)的自定义事件源。 过滤规则 输入事件过滤规则。 事件源产生