检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置日志结构化后,即可进行日志搜索分析。 通过仪表盘可视化分析ELB日志 该解决方案介绍当ELB日志接入云日志服务后,您可以通过SQL语句查询分析日志,将日志结果保存为多种图表,并将图表保存至仪表盘,从而使用仪表盘实时分析ELB日志数据。您可以参考如下内容,进行具体的操作配置。 无服务器日志实时分析
选择关闭“超额继续采集日志”。 关闭后表示当日志超过每月免费赠送的额度(500M)时,将暂停采集日志。支持在日志总览页查看当前资源使用情况,详情请参考查看日志管理。 配置日志资源使用量预警 开启自定义日志资源使用量预警开关后,系统将自动为您创建一条告警规则(日志资源使用量预警
请求的HTTP方法。 GET cs-uri-stem 请求的URL路径。 /index.html cs-uri-query 请求的URI查询字符串。 在此示例中,第一个请求的查询字符串为空。 sc-status HTTP状态码,表示服务器的响应状态。 301 sc-substatus 子状态码,提供有关HTTP状态码的更多详细信息。
设置完成后,单击右下角的“预览”。预览只扫描并返回符合条件的第一个文件的前10行内容。 在结果预览下方查看结果,确认无误后,单击“提交”。 接入成功后,则会生成一条接入配置信息。邀测期间,最多支持创建10个接入任务。 单击接入配置名称可进入详情页面,查看该接入配置详细信息。 单击接入配置操作列的“修改”重新修改接入配
如需了解实际场景下的计费样例以及各计费项在不同计费模式下的费用计算过程,请参见计费样例。 费用账单 您可以在“费用中心 > 账单管理”查看与云日志服务相关的流水和明细账单,以便了解您的消费情况。如需了解具体操作步骤,请参见费用账单。 欠费 在使用云日志服务时,账户的可用额度小
请确保已在Kubernetes集群中执行安装Helm v3的命令。 请确保Kubernetes集群已配置kubectl。 开启“ICAgent诊断开关”用于查看ICAgent异常监控、ICAgent整体状态和ICAgent采集监控,请参考设置ICAgent日志采集开关。 步骤1:选择日志流 登录云日志服务控制台。
关键词搜索、模糊搜索、快速分析 ☆☆☆☆☆ ☆☆☆☆☆ ELK和LTS:提供类似的日志关键词搜索能力。 实时日志查看 ☆☆☆☆☆ 无 ELK:未提供实时日志查看页面。 LTS:提供实时日志查看页面。 百亿日志秒级搜索 ☆☆☆☆☆ ☆☆ ELK:自建ELK受限于机器资源数量,搜索海量日志时耗时较长。
申请开通。 时间字段 时间字段类型 云日志服务的保留字段__time:用API/SDK写入日志数据时指定的日志时间,该字段可用于日志投递、查询、分析。 日志中原有的时间字段:日志在生成时,用于记录日志事件发生时间的字段,是原始日志的字段。 转换时间字段格式的方式: 将__time转化成时间戳
为1-64个字符。 设置tag字段 设置结构化配置时,可以对日志维度信息进行tag字段设置,设置完成后可以在可视化界面对设置字段进行SQL查询。 在字段提取步骤中,选择“tag字段”页签,单击“添加字段”。 图1 添加tag字段 在tag字段列表中,输入需要设置 tag“字段名称”,例如hostIP。
为1-64个字符。 设置tag字段 设置结构化配置时,可以对日志维度信息进行tag字段设置,设置完成后可以在可视化界面对设置字段进行SQL查询。 在字段提取步骤中,选择“tag字段”页签,单击“添加字段”。 图1 添加tag字段 在tag字段列表中,输入需要设置 tag“字段名称”,例如hostIP。
ap-southeast-3 日志组ID:登录云日志服务页面,选择“日志管理”,鼠标悬浮在日志组名称上,可查看日志组名称和日志组ID。 日志流ID:单击日志组名称对应的按钮,鼠标悬浮在日志流名称上,可查看日志流名称和日志流ID。 父主题: 日志消费与加工
通过协同消费组对源日志流的数据进行读取。 通过加工规则对读取到的每一条数据进行加工处理。 将加工后的数据写入目标日志流。数据加工完成后,您可以在目标日志流中查看加工后的数据。 功能特性 云日志服务提供数据加工功能,用于数据的规整、富化、脱敏和过滤。 数据规整:针对混乱格式的日志进行字段提取、格式转
ua_parse_all 解析User-Agent中所有信息。 url_parse 解析URL的组成部分。 url_parse_qs 解析URL中查询字符串包含的参数。 User-Agent解析函数会剔除解析结果为None的字段,例如解析的设备数据为{'brand': None, 'family':
的字段。 单击操作列下的,删除不需要的转储字段。 单击,添加需要转储的字段。 hostIP 完成后单击“确定”。 创建转储任务成功后,支持查看、修改、删除转储任务。 转储任务一旦删除将不再对日志进行转储,请谨慎操作。 删除转储任务后,之前已经转储日志将会继续保存在DWS。 父主题:
北京。目前LTS控制台没有提供批量修改功能,如果手动修改每条转储规则,会导致人工耗时非常长。 前提条件 Linux系统的主机。 查询API相关接口文档。 通过查询日志转储API获取到所有转储任务的信息。 通过更新日志转储API将转储任务配置的时区修改。 在API Explorer中测试API功能,API
默认情况下,Kafka的系统日志文件可能位于Kafka安装目录的logs子目录下,但具体位置可能会因配置而异。以下是一些常见的方法用于找到Kafka的系统日志文件位置: 查看Kafka安装目录。 首先,检查Kafka的安装目录。通常,系统日志文件会存储在安装目录下的一个名为logs的子目录中。例如,如果Kafk
e_search(querystring) 参数说明 参数名称 参数类型 是否必填 说明 querystring String 是 查询字符串,用于快速过滤日志的查询字符串。 返回结果 满足条件返回true,否则返回false。 函数参考示例 # 全文 e_search("active error")#
映射函数e_dict_map。 状态码 文本 200 成功 300 跳转 400 请求错误 500 服务器错误 搜索映射函数的映射关键字是查询字符串,支持正则表达式匹配、完全匹配、模糊匹配等形式。搜索映射函数包括e_search_dict_map函数和e_search_table
单击操作列下的,删除不需要的转储字段。 单击,添加您需要转储的字段,只能添加一个表字段。 - 完成后单击“确定”。 创建转储任务成功后,支持查看、修改、删除转储任务。 转储任务一旦删除将不再对日志进行转储,请谨慎操作。 删除转储任务后,之前已经转储日志将会继续保存在DLI。 父主题:
符串分割为多个IP地址,解析结果通过JSON格式返回。默认值为None,表示不进行分隔。 返回结果 返回字典形式数据。 函数示例 单个IP查询。 测试数据 { "ip": "192.168.0.1" } 加工规则 e_set("geo_parse", geo_parse("192