检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
语法:CAST(Expression as Datatype) 要将表达式转换到的数据类型是目标类型。要从中转换的表达式的数据类型是源类型。 表2 参数说明 参数名称 描述 类型 是否必选 expression 源类型的表达式。 任意 是 Datatype 目标类型。 SQL数据类型,可选值为bigint、varchar、double、double
分裂等功能;另外结合定时SQL统计,可以对数据实现聚合统计。 支持用户使用SDK消费LTS日志,可以获取全量日志数据,可以作为流计算的数据源(SDK消费功能邀测中,暂未开放)。
/bin/grafana-server web 添加数据源 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源,选择hws-lts-grafana-datasource-plugin。 配置数据源,完成后单击 Save& Test。
是否将值左边的空格去掉,默认为true。 jmes String 否 将字段值转化为JSON对象,并使用JMES提取特定值,再进行分裂操作。 output String 否 设置一个新的字段名,默认覆盖旧字段名。 返回结果 返回日志列表,列表中字段的值都是源列表中的值。 函数示例 测试数据 { "__topic__":
DCS仪表盘模板 分布式缓存服务(Distributed Cache Service,简称DCS)是一款内存数据库服务,兼容了Redis内存数据库引擎,满足用户高并发及数据快速访问的业务诉求。云日志服务提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。
FO 将日志分类,然后分发到不同的日志主题。 方案介绍 云日志服务支持通过创建DSL加工任务,将用户源日志流数据进行加工输出到目标日志流中,主要操作流程如下: 通过协同消费组对源日志流的数据进行读取。 通过加工规则对读取到的每一条数据进行加工处理。 将加工后的数据写入目标日志流。
objects 日志汇聚配置 表4 LogMappingConfig 参数 参数类型 描述 source_log_group_id String 源日志组ID target_log_group_id String 目标日志组ID target_log_group_name String 目标日志组名称
添加数据源 在浏览器中输入localhost:3000进行访问,登录Grafana服务。初始账号密码是admin/admin。 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源。 配置数据源。 表1
ICAgent限制 本文介绍日志采集器ICAgent的限制。 表1 ICAgent文件采集限制 限制项 说明 备注 文件编码 仅支持UTF8,其他编码可能会产生乱码。 不支持采集其他类型日志文件,例如:二进制文件。 不涉及。 日志文件大小 无限制。 不涉及。 日志文件轮转 ICA
为1到64个字符,只支持输入英文、数字、中文、中划线、下划线以及小数点,且不能以小数点、下划线开头或以小数点结尾。 数据源配置:选择数据源类型,进行对应的数据源配置。 表2 采集配置参数表 类型 参数配置 容器标准输出 采集集群内指定容器日志,仅支持Stderr和Stdout的日志。
添加数据源 在浏览器中输入localhost:3000进行访问,登录Grafana服务。初始账号密码是admin/admin。 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源。 配置数据源。 表1
变量亦不相同。目前两种告警类型有共同变量如下: 告警级别:${event_severity}; 发生时间:${starts_at}; 告警源:$event.metadata.resource_provider; 资源类型:$event.metadata.resource_type;
变量亦不相同。目前两种告警类型有共同变量如下: 告警级别:${event_severity}; 发生时间:${starts_at}; 告警源:$event.metadata.resource_provider; 资源类型:$event.metadata.resource_type;
DISTINCT visitCount FROM 表示当前查询数据的源数据集, 可以是当前日志流的结构化数据, 也可以是当前日志流结构化数据的一个子集。 不加FROM的时候默认从当前日志流结构化数据查询,如果查询的数据源是一个子集, 则需要自己编写子查询语句。 SELECT visitCount
按需计费 按需计费是一种先使用再付费的计费模式,适用于无需任何预付款或长期承诺的用户。本文将介绍按需计费云日志服务的计费规则。 适用场景 云日志服务采集日志后,日志数据可以在云日志控制台以简单有序的方式展示、方便快捷的方式进行查询,并且可以长期存储。 适用计费项 按照用户实际使用
变量亦不相同。目前两种告警类型有共同变量如下: 告警级别:${event_severity}; 发生时间:${starts_at}; 告警源:$event.metadata.resource_provider; 资源类型:$event.metadata.resource_type;
从其他表达式构建 e_dict_map(json_parse(v("http_code_map")), "status", "message") 此处从源日志的http_code_map字段中获取映射关系。 表格构建 不同表格构建方式对比参考如下: 表2 不同表格构建方式对比 构建方式 优点 缺点
DLI和DWS快速对接LTS:DLI-Flink简易集成Connector,定点从LTS实时消费日志;LTS日志可快速配置转储到OBS,供DLI快速从OBS读取日志;LTS支持直接将结构化日志转储到DWS。 LTS提供解决方案参考如下图3,可以对日志结构化解析,基于SQL语法分析日
日志转储限制 本文介绍云日志服务转储的限制。 表1 日志转储限制 类别 限制项 说明 备注 转储OBS 单个日志流转储任务数量 1 个日志流只能配置一个转储OBS任务。 不涉及。 转储周期 2分钟、5分钟、30分钟、1小时、3小时、6小时、12小时。 不涉及。 每次转储数据大小 0MB-2GB。
使用外部数据源丰富日志内容并上报到LTS Flume数据传输的基本单元,以Event的形式将数据从源头传输至目的地。Event由Header和Body两部分组成,Header用来存放该Event的一些属性,为K-V结构,Body用来存放该条数据,形式为字节数组。 有外部数据源时,如果