检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
日志组(LogGroup)是云日志服务进行日志管理的基本单位,用于对日志流进行分类,一个日志组下面可以创建多个日志流。日志组本身不存储任何日志数据,仅方便您管理日志流,每个账号下可以创建100个日志组。 一个日志组通常对应公司内的某一个项目/业务,建议将某个项目/业务下的多个应用/服
DESC LIMIT 100 柱状图 根据以下语句查询结果绘制柱状图,x轴选择"request_uri",y轴选择"pv",表示每种requestURL请求分别有多少条。 SELECT "router_request_uri" as "request_uri", "host", COUNT(*)
IDEA为例:项目中导入JAR包 在IntelliJ IDEA中选择您的工程,选择File > Project Structure。 在Project Structure对话框,左侧单击Modules。 在Dependencies页签,选择+ > JARs or directories。
rule deleteRuleStatistics 创建结构化 structurization addStructurization 删除结构化 structurization deleteStructurization 添加kafka实例 dmsKafka registerKafkaInfo
PostgreSQL接入LTS 云数据库 GaussDB 数据仓库服务GaussDB(DWS)接入LTS 云数据库 GeminiDB 云数据库GeminiDB接入LTS 云数据库GeminiDB Mongo接入LTS 云数据库GeminiDB Cassandra接入LTS 移动端 iOS、An
109 m 14 SO(取消变换) 46 . 78 N 110 n 15 SI(启用变换) 47 / 79 O 111 o 16 DLE(跳出数据通讯) 48 0 80 P 112 p 17 DC1(设备控制1) 49 1 81 Q 113 q 18 DC2(设备控制2) 50 2 82
IDEA为例:项目中导入JAR包 在IntelliJ IDEA中选择您的工程,选择“File > Project Structure”。 在Project Structure对话框,左侧单击“Modules”。 在Dependencies页签,选择“+ > JARs or directories”。
例如:8:30开始转储,最晚8:35可见转储数据。 不涉及。 转储速率阈值 转储速率上限为为40 MB/s。 超过限制时,转储数据会不稳定。 不涉及。 转储数据可靠性 某批次数据格式合法时,保证转储数据至少一次(At Least Once)。当DWS集群负载较高、网络错误时,会有写入响应超时,可能导致数据重复,因此无法保障数据精确一次(Exactly
云日志服务提供数据加工功能,用于数据的规整、富化、脱敏和过滤。 数据规整:针对混乱格式的日志进行字段提取、格式转换,获取结构化数据以支持后续的流处理、数据仓库计算。 数据富化:对日志(例如订单日志)和维表(例如用户信息表)进行字段连接(JOIN),为日志添加更多维度的信息,用于数据分析。 数据脱敏:对数据中包
ER仪表盘模板 企业路由器(Enterprise Router, ER)可以连接虚拟私有云(Virtual Private Cloud, VPC)或本地网络来构建中心辐射型组网,是云上大规格、高带宽、高性能的集中路由器。企业路由器使用边界网关协议(Border Gateway Protocol
函数工作流FunctionGraph接入LTS 云数据库GaussDB接入LTS 图引擎服务GES接入LTS 云数据库 TaurusDB接入LTS 云数据库GeminiDB接入LTS 云数据库GeminiDB Mongo接入LTS 云数据库GeminiDB Cassandra接入LTS
志。使用ICAgent的好处是与应用系统完全解耦,无侵入,无需更改代码,使用SDK/API等方式步骤相对复杂,如果代码编写不当容易对应用系统的稳定性造成影响。 日志组规划建议:将一个应用系统的日志放在一个日志组中,日志组的名称可以使用应用系统的名称。 日志流规划建议: 如果您的日
如您有更大的使用需求,请提交工单申请。 数据量 单个日志流单次最大分析24GB数据。 如果您的数据量远超LTS提供的分析规格,请您购买DWS服务,配置日志转储DWS,使用数据仓库分析。 开启模式 默认不开启。 不涉及。 数据生效机制 日志结构化只对新增结构化配置之后写入的数据生效。 不涉及。 返回结果
etmask格式输出 ip_overlaps 判断两个网段是否存在重叠 ip2long 将字符串格式的IP地址转换成长整型数据 long2ip 将长整型数据转换成字符串格式的IP地址 geo_parse 根据IP地址解析出所属国家、省份和城市等信息。 函数格式 geo_parse(ip
支持对存储在云日志服务中的日志数据进行关键词统计或SQL统计,通过在一定时间段内日志中关键字出现次数,实时监控服务运行状态;支持自定义告警内容,支持短信/邮件/企业微信/钉钉/HTTP多渠道通知。 日志转储 主机和云服务的日志数据上报至云日志服务后,支持自定义存储时间。超出存储时间的日志数据将会被自动
本实践主要介绍使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。 日志接入 通过ECS接入LTS采集Zabbix数据 本实践介绍将Zabbix中的监控数据采集到云日志服务的日志流中。 日志接入 采集多渠道日志数据到LTS 本实践介绍采集多渠道日志数据到LTS。 日志搜索与分析
日志接入 采集第三方云厂商、互联网数据中心、华为云其他Region云主机日志到LTS 采集第三方云厂商、互联网数据中心、华为云其他Region的Kubernetes日志到LTS 采集Syslog汇聚服务器日志到LTS 将自建ELK日志导入云日志服务LTS 基于VPN打通网络实现API或SDK跨云上报日志到LTS
日志加工(邀测) 使用DSL加工函数清洗LTS日志数据 使用DSL加工函数进行事件判断 使用DSL加工函数处理日期时间 使用DSL加工函数对LTS日志数据脱敏 文本解析 数据富化
对任意类型值进行真假判断。 函数示例 示例1: 测试数据 { "ctx1": "true" } 加工规则 e_set("op_not", op_not(v("ctx1"))) 加工结果 ctx1: true op_not: false 示例2: 测试数据 { "ctx1": 345 } 加工规则
dt_add(v("time1"), weekday=dt_TU(op_neg(1)))) #time1的下下一个星期六对应的日期 e_set("nex_next_Saturday", dt_add(v("time1"), weekday=dt_SA(2))) #time1的上上一个星期日对应的日期 e_se