检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
添加数据源 在浏览器中输入localhost:3000进行访问,登录Grafana服务。初始账号密码是admin/admin。 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源。 配置数据源。 表1
/bin/grafana-server web 添加数据源 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源,选择hws-lts-grafana-datasource-plugin。 配置数据源,完成后单击 Save& Test。
添加数据源 在浏览器中输入localhost:3000进行访问,登录Grafana服务。初始账号密码是admin/admin。 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源。 配置数据源。 表1
义应用程序构建数据流管道,主要解决云服务外的数据实时传输到云服务内的问题。数据接入服务每小时可从数十万种数据源(如IoT数据采集、日志和定位追踪事件、网站点击流、社交媒体源等)中连续捕获、传送和存储数TB数据。 数据仓库服务 GaussDB(DWS) 数据仓库服务(Data Warehouse
DISTINCT(resource_id) 流量方向图展示为静态过滤器,可按照入方向和出方向的流量进行过滤,所关联的查询分析语句如下所示: 过滤源IP图,所关联的查询分析语句如下所示: SELECT DISTINCT(srcaddr) 过滤目的IP图,所关联的查询分析语句如下所示: SELECT
w { "templates" : "告警级别:${event_severity};\n发生时间:${starts_at};\n告警源:$event.metadata.resource_provider;\n资源类型:$event.metadata.resource_typ
etric-statistics,您可以查看日志生成指标任务监控中心或者配置告警规则,及时发现加工过程中可能出现的异常问题。 配置数据源。 选择源日志组,若没有,则单击创建日志组。 超出存储时间的日志将会被自动删除,您可以按需将日志数据转储至OBS桶中长期存储。 如果您的日志尚未
”,可以参考如下步骤进行排查处理。 请检查消息模板名称是否有重复。 若有重复,请重新修改消息模板名称。因为,LTS的消息模板数据源与AOM消息模板数据源为同一个,消息模板名称不能重复,如果在AOM中创建了名称为test的消息模板,在LTS页面不能创建同名的消息模板。 请检查消息模板数量是否超过100个。
WHERE direction='out2in' GROUP BY app ORDER BY num DESC 互联网访问源IP TOP5图展示互联网访问源IP TOP5的变化情况,所关联的查询分析语句如下所示: select src_ip, SUM(bytes)/1024 as
objects 日志汇聚配置 表4 LogMappingConfig 参数 参数类型 描述 source_log_group_id String 源日志组ID target_log_group_id String 目标日志组ID target_log_group_name String 目标日志组名称
个字符,只支持输入英文、数字、中文、中划线、下划线以及小数点,且不能以小数点、下划线开头或以小数点结尾。 数据源配置:选择数据源类型,进行对应的数据源配置。支持的数据源类型有容器标准输出、容器文件路径、节点文件路径和K8S事件。 表1 采集配置参数表 类型 参数配置 容器标准输出
变量亦不相同。目前两种告警类型有共同变量如下: 告警级别:${event_severity}; 发生时间:${starts_at}; 告警源:$event.metadata.resource_provider; 资源类型:$event.metadata.resource_type;
变量亦不相同。目前两种告警类型有共同变量如下: 告警级别:${event_severity}; 发生时间:${starts_at}; 告警源:$event.metadata.resource_provider; 资源类型:$event.metadata.resource_type;
DISTINCT visitCount FROM 表示当前查询数据的源数据集, 可以是当前日志流的结构化数据, 也可以是当前日志流结构化数据的一个子集。 不加FROM的时候默认从当前日志流结构化数据查询,如果查询的数据源是一个子集, 则需要自己编写子查询语句。 SELECT visitCount
变量亦不相同。目前两种告警类型有共同变量如下: 告警级别:${event_severity}; 发生时间:${starts_at}; 告警源:$event.metadata.resource_provider; 资源类型:$event.metadata.resource_type;
从其他表达式构建 e_dict_map(json_parse(v("http_code_map")), "status", "message") 此处从源日志的http_code_map字段中获取映射关系。 表格构建 不同表格构建方式对比参考如下: 表2 不同表格构建方式对比 构建方式 优点 缺点
分裂等功能;另外结合定时SQL统计,可以对数据实现聚合统计。 支持用户使用SDK消费LTS日志,可以获取全量日志数据,可以作为流计算的数据源(SDK消费功能邀测中,暂未开放)。
新建DSL加工任务” 。 在基本信息页面中,完成如下配置。 任务名称:DSL加工任务的名称,例如test-vpc。 启用状态:默认开启。 源日志流:选择已完成结构化配置的日志组、日志流,即VPC流日志接入LTS时创建的日志组和日志流。 目标日志流:单击“添加目标日志流”,填写目标
升运维和运营效率,建立海量日志处理能力。 LTS-Flink-Connector工具支持以下表1。 表1 功能说明 功能 说明 支持类型 源表和结果表 运行模式 仅支持流模式 API种类 SQL 是否支持更新或删除结果表数据 不支持更新和删除结果表数据,只支持插入数据。 使用限制
"url":"/check"} 日志基础转储流量 转储OBS(原始日志格式/JSON格式)、转储DMS、转储DIS属于日志基础转储,典型特征是源日志流和转储目标之间不需要字段映射,日志基础转储算力消耗相对日志高级转储较少。 转储流量会统计非压缩的转储数据量,以转储DMS流量统计为例: