检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SQL查询语法概述 SQL是用于访问和处理数据库的标准计算机语言。LTS SQL提供了查询日志流中结构化数据的语句, 以下均将 LTS SQL 称为 SQL。 SQL语言由用于处理数据库和数据库对象的命令和函数组成。使用该语言时需遵循有关表达式和文本使用的规则。因此在SQL参考章
12:00:00, 12:10:00]区间内。 一次性任务如果处理某个文件失败后,扫描出来的其余文件不会再被解析上报到LTS。 固定间隔任务关闭后重新开启,监控数据连续性最多保持一天。 固定间隔任务在某个周期时间内处理文件失败后,该周期时间内扫描出来的其余文件不会再被解析上报到LTS。
自定义元数据 关闭“自定义元数据”,使用ICAgent系统默认配置的字段上报到LTS,不需要用户配置且ICAgent系统不支持配置。 开启“自定义元数据”,根据用户选择的内置字段和自定义键值增加字段上报到LTS。 系统内置字段:勾选需要设置的内置字段。 自定义键值对:单击“添加”,输入键值key和键值Value。
og写入,需要手动开启。 方案概述 图1 方案流程图 你可以购买Linux云主机,配置为Syslog汇聚服务器,用于接收其他设备发送的日志数据;Syslog服务器默认接收日志大小为1024字节,超过会截断。 单台Syslog服务器处理日志能力为10MB/s,如果您的日志量较大,或
范围,个人信息处理者的名称和联系方式等。 您的产品及服务如涉及向第三方共享个人信息或集成了第三方的SDK时,需要在隐私政策中向用户进行披露和说明,获取用户的授权或同意。 (二)处理个人信息要求 您的产品及服务在处理用户个人信息时,需要遵守的要求包括不限于如下: 处理个人信息需要基于使用目的所必需,满足最小化原则。
场景六:使用e_if函数或e_switch函数判断日志并增加字段 推荐使用e_if函数或e_switch函数进行日志判断。更多信息,请参见流程控制函数。 e_if函数 e_if(条件1, 操作1, 条件2, 操作2, 条件3, 操作3, ....) e_switch函数 e_sw
iod。 timezone_hour函数 计算系统时区和utc时区的小时偏移量。如果提供了时区,则计算系统时区与给定时区的偏移量。 timezone_minute函数 计算系统时区和utc时区的分钟偏移量。如果提供了时区,则计算系统时区与给定时区的偏移量。 time_format函数
息。 0 sc-win32-status Win32状态码,表示与HTTP状态码相关的Windows系统错误代码。 在此示例中,Win32状态码为0或2,表示没有错误或特定的系统错误。 time-taken 请求从开始到结束所花费的时间(以毫秒为单位)。 123 日志位置 Internet
最大长度:64 template_type 是 String 所用模板类型,分为built_in及custom两种类型,对应系统模板和自定义模板, 详细系统模板类型参考:“用户指南-日志搜索与分析(默认推荐)> 云端结构化解析> 结构化模板”章节。 枚举值: built_in custom
自定义元数据 关闭“自定义元数据”,使用ICAgent系统默认配置的字段上报到LTS,不需要用户配置且ICAgent系统不支持配置。 开启“自定义元数据”,根据用户选择的内置字段和自定义键值增加字段上报到LTS。 系统内置字段:勾选需要设置的内置字段。 自定义键值对:单击“添加”,输入键值key和键值Value。
Elasticsearch是一个基于Lucene的开源、分布式、RESTful搜索和分析引擎。 Logstash是一个开源的、服务器端的数据处理管道,能够同时从多个来源实时接收、转换并将数据发送到用户选择的“存储库”。通常用于日志的收集、过滤和转发。 Kibana是一个开源的分析和
使用LTS SDK相关问题 本文介绍使用LTS SDK的常见问题和相关报错的处理方法。 端侧SDK日志接入LTS时需要注意什么? 答:请用户在使用端侧SDK日志接入LTS时,建议提前做好一键关闭日志上报、逐步提升上报流量等措施,做到及时止损,如果您的移动端日志流量非常大,请提前知会LTS技术支持为您提前预留资源。
自定义元数据 关闭“自定义元数据”,使用ICAgent系统默认配置的字段上报到LTS,不需要用户配置且ICAgent系统不支持配置。 开启“自定义元数据”,根据用户选择的内置字段和自定义键值增加字段上报到LTS。 系统内置字段:勾选需要设置的内置字段。 自定义键值对:单击“添加”,输入键值key和键值Value。
云日志服务支持通过创建DSL加工任务,将用户源日志流数据进行加工输出到目标日志流中,主要操作流程如下: 通过协同消费组对源日志流的数据进行读取。 通过加工规则对读取到的每一条数据进行加工处理。 将加工后的数据写入目标日志流。数据加工完成后,您可以在目标日志流中查看加工后的数据。 功能特性
若默认分词符不能满足您的需求时,可按照如下操作进行自定义配置。 注意事项 分词配置只会对配置时间点以后生成的日志生效,之前的日志按照之前配置的分词符进行处理。 在“分词配置”页签设置分词符后会对当前Region区域内的所有日志流生效,若需要单独配置单个日志流的分词符,请参考设置LTS日志索引配置。
云日志服务LTS支持采集的日志类型和文件类型有哪些? 云日志服务可以采集的日志类型 主机日志,通过ICAgent采集器进行采集。当主机选择“Windows主机”时,如需采集系统日志,需要在“配置采集路径”环节,开启“采集Windows事件日志”。 云服务日志,如ELB/VPC,需要到对应的云服务上启用日志上报。 通过API上报日志。
最大长度:64 template_type 是 String 所用模板类型,分为built_in及custom两种类型,对应系统模板和自定义模板, 详细系统模板类型参考:“用户指南-日志搜索与分析(默认推荐)> 云端结构化解析> 结构化模板”章节。 枚举值: built_in custom
您可以通过Kafka协议上报日志到日志服务,目前支持各类Kafka Producer SDK或采集工具,仅依赖于Kafka协议。支持以下场景: 场景1:已有基于开源采集的自建系统,仅修改配置文件便可以将日志上报到 LTS,例如Logstash。 场景2:希望通过 Kafka producer SDK 来采集日志并上报,不必再安装采集ICAgent。
限制是软件层面的元数据限制。 每个日志生成指标规则后台会默认分配1个后台执行任务,单个后台执行任务能处理的源日志流量有一定的性能规格。如果您的源日志流量超过单个后台执行任务的处理规格,支持提工单申请配置扩大单个规则的后台执行任务数量。 如果您的日志生成指标规则太多,导致剩余可用的
接修改该请求,不要重试该请求。 401 在客户端提供认证信息后,返回该状态码,表明服务端指出客户端所提供的认证信息不正确或非法。 500 系统内部错误。 503 ServiceUnavailable。被请求的服务无效,服务不可用。 父主题: 使用API接入LTS