检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String Topic的唯一的资源标识。 最小长度:1 最大长度:1024 display_name 否 String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 最小长度:1 最大长度:1024 push_policy 否 Integer 消息推送的策略。 最小值:1
云日志服务SDK提供了Go语言上报日志的一系列方法,方便用户直接使用编码方式上报日志到云日志服务后台。 传输协议 HTTPS 使用前提 参考注册华为账号并开通华为云中操作,完成注册。 确认云日志服务的区域,请用户根据所在区域,选择RegionName。 获取华为账号的AK/SK。 获取华为云账号的项目ID(project
中间件-Flink日志 Flink是一个大数据处理引擎的处理框架,是针对流进行的处理。它是Apache旗下的一个框架和分布式的处理引擎,用于对无界和有界的数据进行状态的计算。Flink的核心特点包括高吞吐、低延迟(每秒处理数百万个事件,毫秒级延迟),以及结果的准确性(Flink提供了时间事件(ev
除服务发现规则的权限策略,控制其对服务发现规则资源的使用范围。 如果华为账号已经能满足您的使用需求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用LTS的其它功能。 IAM是华为云提供权限管理的基础服务,无需付费即可使用,您只需要为您账号中的资源进行付费。
参数%@为空。 请设置非空的参数后重试。 LTS.0002 %@ is invalid. 参数%@的类型、格式无效。 请设置有效的参数后重试。 LTS.0003 The length of %@ exceeds the maximum value of %@. 参数%@的长度超过了最大值%@。
&namespaceRegexAccessConfigDetail, PodNameRegex: &podNameRegexAccessConfigDetail, ContainerNameRegex: &containerNameRegexAccessConfigDetail, IncludeLabels:
远程卸载:此操作适用于正常安装ICAgent后需远程卸载的场景。 除了上述登录服务器上执行uninstall.sh命令卸载ICAgent的方式,还可以对服务器进行远程卸载。 在已安装ICAgent的服务器上执行如下命令,其中x.x.x.x表示待卸载ICAgent的服务器的IP地址。 bash /opt/
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 查询直方图数据请求响应成功 400 BadRequest
TransferDetail logTransferDetailLogTransferInfo = new TransferDetail(); logTransferDetailLogTransferInfo.withObsPeriod(TransferDetail.ObsPeriodEnum
String Topic的唯一的资源标识。 最小长度:1 最大长度:1024 display_name String Topic的显示名,推送邮件消息时,作为邮件发件人显示。 最小长度:1 最大长度:1024 push_policy Integer 消息推送的策略。 最小值:1 最大值:1024
TransferDetail logTransferDetailLogTransferInfo = new TransferDetail(); logTransferDetailLogTransferInfo.withObsPeriod(TransferDetail.ObsPeriodEnum
logGroupId LTS的日志组ID String logStreamId LTS的日志流ID String regionName 云日志服务的区域 String accessKey 用户账号的AK String accessSecret 用户账号的SK String 使用Ka
全局操作函数或其组合。 返回结果 返回加工处理后的日志。 函数示例 示例1:字段值匹配后再进行操作。 result字段值为failed或failure时,设置__topic__字段的值为login_failed_event。 测试数据 { "result": "failed" } 加工规则 e_if(e_match("result"
build(); RegisterDmsKafkaInstanceRequest request = new RegisterDmsKafkaInstanceRequest(); RegisterDmsKafkaInstanceRequestBody body =
hashMapOf(Pair("food_1", "rice"), Pair("food_2", "wheat"), Pair("food_3", "egg")) val fruit = hashMapOf(Pair("fruit_1", "apple"), Pair("fruit_2"
选择对应日志组、日志流下的可视化图表,单击“确定”。若该日志流下没有图表或没有所需的图表,单击界面上的“前往添加图表”,进入可视化界面,设置完成后单击“保存并返回”返回到告警规则界面,自动打开创建规则弹框,填充新创建的图表及图表的查询语句。 可以指定图表的查询时间(1 ~ 60分钟/1
日志存储时间(天) 日志流的存储时间,即日志上报到LTS后日志存储的时间。 日志数据默认存储30天,可以在1~365天之间设置。 打开日志流的“日志存储时间”:日志的存储时间使用日志流设置的日志存储时间。 关闭日志流的“日志存储时间”:日志的存储时间使用日志组设置的日志存储时间。 智能冷存储
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 201 请求响应成功, 成功创建接入配置。 400 BadRequest。非法请求。
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
America/St_Johns UTC-03:30 阿拉瓜伊纳 Araguaina America/Araguaina UTC-03:00 阿根廷 Argentina America/Argentina/Buenos_Aires UTC-03:00 萨尔瓦多 Salvador America/Bahia