检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
日志转储至DIS DIS提供丰富的大数据分析能力,可以将大量日志文件传输到云端做备份,进行离线分析、存储查询及机器学习,还能用于数据丢失或异常后的恢复和故障分析。同时大量小文本文件可合并转储为大文件,提高数据处理性能。您可以根据业务场景选择是否使用DIS进行日志转储。 建议您优先使用转储至DMS。
安全云脑SecMaster接入LTS 支持安全云脑SecMaster日志接入LTS。 具体接入方法请参见新增数据投递。 父主题: 使用云服务接入LTS
开启智能冷存储需要日志存储时间大于7天。 标准存储层数据保存时间 开启智能冷存储后,需要设置标准存储层数据的保存时间。 标准存储数据至少需保存7天才能转换为智能冷存储层数据。当日志保存时间大于标准存储层数据保存时间,且小于日志存储时间时,日志数据将自动转换为智能冷存储层数据存储。 标签 按照业务需求对不
本文介绍窗口函数的语法规则,包括参数解释、函数示例等。 函数列表 表1 窗口函数 函数 描述 ntile函数 用于将窗口分区内数据按照顺序分成N组。 ntile函数 用于将窗口分区内数据按照顺序分成N组。 语法: ntile(n) over ( [partition by partition_expression]
168.0.1 tag: stu id: 7990 content: this is a log } 父主题: 使用DSL加工函数清洗LTS日志数据
场景四:转换日志参数类型(v函数、cn_int函数和dt_totimestamp函数) 场景1:调用op_add函数进行字符拼接和数据相加。 op_add函数既可以接收字符串类型,也可以接受数值类型,因此不需要做参数类型转换。 示例如下所示: 原始日志 { "a":"1"
设置完成后,单击“确定”,该账号汇聚配置创建中,预计5分钟左右创建完成,请稍后刷新查看配置。 目标日志流初始化时默认采用源账号日志流的索引配置和结构化配置,配置成功后,若源账号日志流修改索引/结构化配置则不会同步到目标日志流。 删除源账号的日志组/日志流不会对目标账号的日志组/日志流造成影响。 取消勾
云日志服务LTS计费模式概述 云服务日志支持按需付费方式。先使用,后付费模式,即先使用再付费,按照云服务日志实际使用日志读写流量、日志索引流量、日志存储量、日志转储流量计费结算费用。 按需计费模式允许您根据实际业务需求灵活地调整资源使用,无需提前预置资源,从而降低预置过多或不足的风险。
查询日志时报错提示:XXX字段未配置字段索引,不支持查询该字段 可能原因:用户没有配置字段索引。 解决方法:请您在索引配置中创建XXX字段的字段索引,重新执行查询语句。详细请参考配置索引。 查询日志时报错提示:未开启全文索引,不支持查询content字段和全文查询 可能原因:用户没有开启全文索引。 解决方法
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
{ "type": "log", "content": "this is a log" } 父主题: 使用DSL加工函数清洗LTS日志数据
str 任意(自动转为String) 是 指定查找的子字符串。 begin Number 否 开始索引的位置。默认为0表示第一个字符,-1表示倒数第一个字符。 end Number 否 结束索引的位置。默认为字符串的长度。0表示第一个字符,-1表示倒数第一个字符。 返回结果 指定子字符
中间件-Flink日志 Flink是一个大数据处理引擎的处理框架,是针对流进行的处理。它是Apache旗下的一个框架和分布式的处理引擎,用于对无界和有界的数据进行状态的计算。Flink的核心特点包括高吞吐、低延迟(每秒处理数百万个事件,毫秒级延迟),以及结果的准确性(Flink提
参数名称 数据类型 是否必填 说明 ist_string List 是 传入一个列表。 location Int 是 从0开始计数,传入数字。例如数据为["a","b","c"],对应获取的元素位置分别为0,1,2。 返回结果 返回列表的其中一个元素。 函数示例 测试数据 {
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
"error", "status1_info": "normal", "status2": 404 } 父主题: 使用DSL加工函数清洗LTS日志数据
e_rename("IdNumber", "Id"))) 加工结果 { "Id": 1, "content": 123 } 父主题: 使用DSL加工函数清洗LTS日志数据
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
服务。 多AZ容灾 LTS支持跨AZ容灾,当一个AZ异常时,不影响LTS实例持续提供服务。 数据容灾 通过日志数据多副本方式实现数据容灾。 父主题: 安全
使用前必读 欢迎使用云日志服务(Log Tank Service,简称LTS)。LTS用于收集来自主机和云服务的日志数据,通过海量日志数据的分析与处理,可以将云服务和应用程序的可用性和性能最大化,为您提供一个实时、高效、安全的日志处理能力,帮助您快速高效地进行实时决策分析、设备运维管理、用户业务趋势分析等。