检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
图1 添加tag字段 在tag字段列表中,输入需要设置 tag“字段名称”,例如hostIP。 tag字段功能上线前,已设置的结构化配置,在修改结构化配置进行tag字段设置时,系统tag不会带出示例字段。 如需添加多个字段可单击“添加字段”,继续添加。 设置完成后,单击“保存”。 t
登录云日志服务控制台,进入“日志管理”页面。 单击目标日志组或日志流名称,进入日志详情页面。 选择“日志分析”页签。 在可视化页面支持交互式分析,通过该模块配置简单的分析语句,查询可视化数据,配置可视化图表。设置过滤条件,通过添加指标、添加分组、添加排序进行数据分析,方便用户操作。 选择时间范围,参考SQL分析语法
展示日志数据,或者将查询分析结果的统计图表同步保存到仪表盘中进行展示。 前提条件 已成功采集到日志。 对日志内容已完成结构化配置,具体操作请参考结构化配置。 约束与限制 日志可视化相关的功能支持全部用户使用的局点有:华南-广州、华北-北京四、华北-乌兰察布二零一、华北-乌兰察布一
获取需要上报到LTS的日志组ID和日志流ID。 已安装Java开发环境。云日志服务Java SDK支持JDK1.8及以上,您可以执行java –version命令检查您已安装的Java版本。如未安装,可以从Java官方网站下载安装包进行安装。 使用说明 当用户修改权限后,权限信息在一天后生效。
获取需要上报到LTS的日志组ID和日志流ID。 已安装Java开发环境。云日志服务Java SDK支持JDK1.8及以上,您可以执行java –version命令检查您已安装的Java版本。如未安装,可以从Java官方网站下载安装包进行安装。 使用说明 当用户修改权限后,权限信息在一天后生效。
agency_name String 委托方配置的委托名称 最小长度:1 最大长度:128 agency_project_id String 委托方项目ID 最小长度:32 最大长度:32 be_agency_domain_id String 被委托方账号ID,实际配置转储的账号ID 最小长度:1
Service,简称LTS)中,通过LTS记录的Anti-DDoS日志数据,快速高效地进行实时决策分析、设备运维管理以及业务趋势分析。 具体接入方法请参见配置Anti-DDoS日志。 父主题: 使用云服务接入LTS
通过查看错误日志,您可以定位到问题的源头,从而进行故障排除。 采集方法 使用ICAgent采集日志,接入前请参考安装ICAgent(区域内主机)完成ICAgent安装。然后再通过采集ECS-文本日志方式将日志上报至LTS服务,详细操作请参考云主机ECS文本日志接入LTS。 Nginx日志示例以及字段含义
云日志服务与应用运维服务的日志采集开关为同步状态,即如果您在应用运维管理服务关闭了“超额继续采集日志”开关,则云日志服务的开关也同样关闭,关闭后将停止采集日志。 详细请参考配置超额采集。 父主题: 日志接入
在注册DMS kafka实例前,需要在安全组中,开放入方向规则198.19.128.0/17和9011端口。 如果DMS kafka实例的子网配置了ACL,则需要在该子网的网络ACL中,开放入方向规则198.19.128.0/17和9011端口。 调用方法 请参见如何调用API。 URI
"target_log_stream_name" : "mysql" } } ] } } 响应示例 状态码: 200 请求响应成功, 成功更新接入配置 { "rule_id" : "", "project_id" : "", "rule_name" : "", "rule_info"
使用ICAgent收集日志时CPU占用较高怎么处理? 如果在使用ICAgent收集日志过程中遇到CPU占用较高(例如运行速度变慢/程序崩溃)的情况,请确认您配置的日志采集路径下是否有大量的日志文件,建议您定时清理,以减少ICAgent在收集日志过程中带来的系统资源占用。若还是无法解决,请联系技术支持协助。
错误码。 error_msg String 调用失败响应信息描述。 请求示例 无 响应示例 状态码: 200 请求响应成功, 成功获取所有接入配置。 [ { "project_id" : "", "rule_id" : "", "rule_info" : { "cluster_id"
"target_log_stream_name" : "mysql" } } ] } } 响应示例 状态码: 201 请求响应成功, 成功创建接入配置。 [ { "project_id" : "", "rule_id" : "", "rule_info" : { "cluster_id"
afka安装目录的logs子目录下,但具体位置可能会因配置而异。以下是一些常见的方法用于找到Kafka的系统日志文件位置: 查看Kafka安装目录。 首先,检查Kafka的安装目录。通常,系统日志文件会存储在安装目录下的一个名为logs的子目录中。例如,如果Kafka安装在/us
fullTextIndex 是 LTSFullTextIndexInfo object 全文索引配置 fields 否 Array of LTSFieldsInfo objects 字段索引配置 表4 LTSFullTextIndexInfo 参数 是否必选 参数类型 描述 enable
错误码。 error_msg String 调用失败响应信息描述。 请求示例 无 响应示例 状态码: 200 请求响应成功, 成功获取单个接入配置。 [ { "project_id" : "", "rule_id" : "", "rule_info" : { "cluster_id"
"status", "message") 从任务高级配置构建 e_dict_map(res_local("http_code_map"), "status", "message") 其中http_code_map是任务高级配置项,值为: 从表格构建 使用tab_to_dict从表
场景描述:适用于用户将应用系统部署在云主机上,使用LTS统一采集和搜索日志的场景。用户的应用系统一般由多个组件(也称微服务)组成,每个组件部署在至少2台云主机上。 使用建议: 日志采集方式:建议使用采集器ICAgent采集日志,您需要在云主机上安装ICAgent,然后使用ECS接入配置日志采集路径
kafka { # 配置地址 bootstrap_servers => "${ip}:${port}" # 配置topic topic_id => "${logGroupId}_${logStreamId}" # 配置消息确认机制 acks => "0" # 配置压缩方式 compression_type