检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
航栏的快速查询页签,即可查看到保存成功的语句。 单击快速查询语句的名称,查看日志详情。 查看上下文 您可以通过本操作查看指定日志生成时间点前后的日志,用于在运维过程中快速定位问题。 在搜索分析页签下方的原始日志页面,单击可以查看上下文。 在查看上下文结果中,可以查看该日志的前后若干条日志详细信息。
云数据库GeminiDB接入LTS 支持云数据库GeminiDB日志接入LTS。配置访问日志后,GeminiDB Redis实例新生成的日志记录会上传到云日志服务(Log Tank Service,简称LTS)进行管理。 具体接入方法请参见日志配置管理。 父主题: 使用云服务接入LTS
糊搜索匹配拥有相同前缀英文单词的日志。 中文采用的是一元分词,每个字都是独立的,拆分后每部分的长度都是1。 例如:搜索语句星期一,代表搜索同时包含星、期、一的日志;搜索语句#"星期一",代表搜索包含目标短语星期一的日志。 语法关键词 日志搜索语句的语法关键词包括:&& || AND
原生LONG类型 查询语句 表2 SQL查询语句 语句 说明 示例 DISTINCT 返回去重后的结果。 SELECT DISTINCT visitCount FROM 表示当前查询数据的源数据集, 可以是当前日志流的结构化数据, 也可以是当前日志流结构化数据的一个子集。 不加FROM的时候默认
对接Grafana插件(Windows) Grafana是一个跨平台的开源的度量分析和可视化工具,可将通过将采集的数据查询进行可视化的展示,并及时通知。 LTS-Grafana是Grafana服务中的一个插件,它可以使用LTS的数据,并对数据进行可视化分析和展示。 前提条件 安装Grafana。
单击快速分析的某一行分析结果,可自动生成查询语句,查询日志并生成新的快速分析。 快速分析的字段长度最大为2000字节。 快速分析字段分布统计展示前100条数据。 前提条件 快速分析的对象为结构化日志中提取的关键字段,创建快速分析前请先对原始日志进行结构化配置。 创建快速分析 可通过日志结构
对接Grafana插件(Linux) Grafana是一个跨平台的开源的度量分析和可视化工具,可将通过将采集的数据查询进行可视化的展示,并及时通知。 LTS-Grafana是Grafana服务中的一个插件,它可以使用LTS的数据,并对数据进行可视化分析和展示。 前提条件 已安装Gra
对接Grafana插件(Windows) Grafana是一个跨平台的开源的度量分析和可视化工具,可将通过将采集的数据查询进行可视化的展示,并及时通知。 LTS-Grafana是Grafana服务中的一个插件,它可以使用LTS的数据,并对数据进行可视化分析和展示。 前提条件 安装Grafana。
30 RDS for MySQL 云数据库 RDS for MySQL 错误日志(MYSQL错误日志) 慢日志(MYSQL慢日志) 云数据库RDS for MySQL接入LTS - 31 RDS for PostgreSQL 云数据库 RDS for PostgreSQL 错误日志(POSTGRESQL错误日志)
支持对前100000条日志进行分析。 快速分析的目的是快速返回字段值的分布情况和变化趋势,并没有对全量数据进行分析,是一种采样结果。 支持通过查询时间和查询条件过滤日志进行分析。 快速分析是对通过查询语句查询到的日志进行分析,当查询到的日志数目为零时,快速分析没有结果。 支持将快速分析生成查询语句。 单击快速分
对接Grafana插件(Linux) Grafana是一个跨平台的开源的度量分析和可视化工具,可将通过将采集的数据查询进行可视化的展示,并及时通知。 LTS-Grafana是Grafana服务中的一个插件,它可以使用LTS的数据,并对数据进行可视化分析和展示。 前提条件 已安装Grafana。Grafana版本要求使用9
析结果,可控制每次返回的日志数量。本文介绍查询结果和分析结果的分页方法。 分页方式 云日志服务的日志搜索和统计图表功能支持在查询分析语句中同时实现关键字查询和针对查询结果进行SQL分析。 日志搜索:使用关键字查询,获取原始日志内容。您可以通过查询日志接口中的line_num、se
EndTime') JSON函数语句 表1 JSON函数语句 语句 说明 示例 返回值类型 json_extract 用于从JSON对象或JSON数组中提取一组JSON值(数组或对象)。 json_extract(x, json_path) JSON格式的string类型 json_extract_scalar
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
根据业务需要选择仪表盘模板,单击下一步选择业务需要的日志流,根据业务需要勾选一个或多个日志流名称前的,单击“确定”。 仪表盘创建成功后,在仪表盘列表生成一条仪表盘信息。 单击仪表盘操作列的编辑,修改仪表盘名称和简洁模式。 单击仪表盘操作列的移动分组,修改仪表盘分组。 单击仪表盘操作列的删除按钮即可删除删除仪表盘。
自建中间件 中间件-MySQL日志 中间件-Redis日志 中间件-Kafka日志 中间件-Nginx日志 中间件-ElasticSearch日志 中间件-Zookeeper日志 中间件-IIS日志 服务器-DNS日志 中间件-Flink日志 父主题: 日志接入
在仪表盘列表页面,单击“OBS导入任务监控仪表盘”仪表盘名称,查看图表详情。 过滤任务ID,所关联的查询分析语句如下所示: * | select task_set_id group by task_set_id 过滤任务名称,所关联的查询分析语句如下所示: * | select task_set_name group
日志消费与加工 DSL加工(邀测) DSL数据加工语法(邀测) 使用定时SQL进行日志加工 使用FunctionGraph服务提供的函数模板进行日志加工 日志生成指标(邀测) 使用消费组管理消费数据(邀测) 使用SDK-API消费日志(邀测)
特定时间范围:指定数据加工任务的起止时间,加工任务执行到指定时间后自动停止。 高级配置 对于加工语句中需要使用的密码信息(例如数据库连接密码),日志服务支持使用键值对形式保存在密钥对中。 单击“添加密钥”,填写key值、Value值。 在编辑加工语句页面中,参考规则语句样例填写规则语句,单击执行预