检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过LTS仪表盘可视化ELB日志分析结果 当ELB日志接入云日志服务后,您可以通过SQL语句查询分析日志,将日志结果保存为多种图表,并将图表保存至仪表盘,从而使用仪表盘实时分析ELB日志数据。 前提条件 已采集ELB日志,具体操作,请参见ELB接入。 已对日志内容完成结构化配置,具体操作请参考结构化配置。
拆分、添加标签等日志处理动作,再将处理好的任务提交到发送任务池后,上报到LTS。 ICAgent安装说明 如果需要采集主机指标、容器指标、节点日志、容器日志、标准输出日志等,则需要在采集日志的机器上安装ICAgent。 请参考安装ICAgent(区域内主机)和安装ICAgent(区域外主机)。
响应示例 状态码: 403 Forbidden。请求被拒绝访问。返回该状态码,表明请求能够到达服务端,且服务端能够理解用户请求,但是拒绝做更多的事情,因为该请求被设置为拒绝访问,建议直接修改该请求,不要重试该请求。 { "error_code" : "LTS.0001",
云日志服务Go SDK OS Linux 安装ICAgent(区域内主机) 安装ICAgent(区域外主机) Windows Docker文件 Docker输出 数据库 MySQL GaussDB for MySQL接入LTS 云数据库RDS for MySQL接入LTS SQL Server
示例5:创建OBS转储 场景描述 本章以将指定的一个或多个日志流的日志转储到OBS服务为例。 涉及其它云服务接口 创建OBS转储时,需要查询用户的桶列表: 获取桶列表:确定将要配置转储的桶名称。 创建OBS转储 接口相关信息 URI格式:POST /v2/{project_id}/log-dump/obs
t。 http_referer做URL解码。 time做格式化。 解决方案: 如果program字段值是access,则通过e_psv函数解析content内容,并删除原始字段content。 e_if(e_search("program==access"), e_compose(e_psv("content"
号,例如("city",)或者(("city","cty"),) ip_sep String 否 IP地址分隔符,用于将包含多个IP地址的字符串分割为多个IP地址,解析结果通过JSON格式返回。默认值为None,表示不进行分隔。 返回结果 返回字典形式数据。 函数示例 单个IP查询。
e_output("target-b") else: e_output("target-default") 支持和其他函数组合使用。 e_compose 组合多个操作。 函数格式 e_compose(操作1, 操作2, ……) 参数说明 参数名称 参数类型 是否必填 说明 操作1 全局操作函数 是 全局操作函数或其组合。
e_keep(e_search("__programe__==access")) #等价于 e_if(e_search("not __programe__==access"), e_drop()) #等价于 e_if_else(e_search("__programe__==access"), e_keep()
tName、pathFile、collectTime);kubernetes信息(clusterName、clusterId、nameSpace、podName、appName、containerName)。可选择公共tag有:regionName、projectId、logSt
管理LTS主机组 主机组是为了便于分类管理、提升配置多个主机日志采集的效率,对主机进行虚拟分组的单位。云日志服务支持通过一个接入配置来采集多台主机上的日志,您可以将这些主机加入到同一个主机组,并将该主机组关联至对应的接入配置中,配置日志接入时以主机组为单位下发采集配置,方便您对多台主机日志进行采集。请参考图1。
errorMessage String 调用失败响应信息描述。 枚举值: Report success. result String 响应结果。 请求示例 curl -k "https://lts-access.cn-north-4.myhuaweicloud.com:8102/v3/xx
设置多账号日志汇聚 多账号日志汇聚中心支持您将多个账号下的日志流复制到指定的账号中,实现多账号日志的集中存储和分析,满足安全合规、集中分析等不同场景下的诉求。 目前此功能支持华东-上海一、中国-香港、亚太-雅加达、华南-广州、拉美-圣保罗一、华北-北京四、西南-贵阳一、拉美-圣地
DSL加工概述 DSL(Domain Specific Language)加工是LTS为您提供的一站式日志加工平台,基于领域自定义的脚本语言和200多个内置函数,您可以在LTS控制台实现端到端的日志规整、富化、脱敏、过滤等加工任务。 DSL加工的功能在邀测中,仅支持华北-北京四、华东-上海
力,未来会按照日志大小收取日志加工流量费用。 ICAgent结构化是在采集侧做结构化,利用的是用户节点上的资源,将结构化完成的数据上报到LTS。ICAgent结构化解析支持插件组合解析,单个日志流的多个采集配置支持不同结构化解析规则,并且可以选择是否上传原始日志,不上传原始日志在
METRIC仪表盘模板 用户在LTS页面只需按照业务需要创建指标规则即可生成自己的统计报表,设置单个日志过滤条件或通过添加关联关系和添加组设置多个日志过滤条件,保留符合条件的日志,对用户特定时间范围内已结构化的日志进行动态统计,并将统计结果动态呈现到aom的Prometheus实例,操作简单且功能强大。
Elasticsearch是一个基于Lucene的开源、分布式、RESTful搜索和分析引擎。 Logstash是一个开源的、服务器端的数据处理管道,能够同时从多个来源实时接收、转换并将数据发送到用户选择的“存储库”。通常用于日志的收集、过滤和转发。 Kibana是一个开源的分析和可视化平台,用于数据
创建DSL加工任务 DSL(Domain Specific Language)加工是LTS为您提供的一站式日志加工平台,基于领域自定义的脚本语言和200多个内置函数,您可以在LTS控制台实现端到端的日志规整、富化、流转、脱敏、过滤等加工任务。详细加工语法请参考DSL数据加工语法(邀测)。 前提条件
deliver-app(送货员App状态) deliver-error(错误日志) web-click(H5页面点击) server-access(服务端Access-Log) server-app(应用) coupon(应用优惠券日志) pay(支付日志) order(订单日志) 如需要
JSON:适用于日志文本中每行内容为一条原始日志,且每条日志可按JSON解析规则提取为多个key-value键值的日志解析模式。 分隔符:适用于日志文本中每行内容为一条原始日志,且每条日志可根据指定的分隔符(例如:冒号、空格或字符等)提取为多个key-value键值的日志解析模式。 Nginx:适用于日志