检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请求鉴权信息等。 详细的公共请求消息头字段请参见表1。 表1 公共请求消息头 名称 描述 是否必选 示例 Host 请求的服务器信息,从服务API的URL中获取。值为hostname[:port]。端口缺省时使用默认的端口,https的默认端口为443。 否 使用AK/SK认证时该字段必选。
t。 首次安装(Linux环境) 首次安装(Windows环境) 继承安装(Linux环境支持) 您有多个服务器需要安装ICAgent,其中一个服务器已经通过首次安装方式装好了ICAgent,对于没有安装ICAgent的其他多个服务器,您可以采用该安装方式。 继承安装(Linux环境)
fullTextIndex 是 LTSFullTextIndexInfo object 全文索引配置 fields 否 Array of LTSFieldsInfo objects 字段索引配置 表4 LTSFullTextIndexInfo 参数 是否必选 参数类型 描述 enable
使用ICAgent收集日志时CPU占用较高怎么处理? 如果在使用ICAgent收集日志过程中遇到CPU占用较高(例如运行速度变慢/程序崩溃)的情况,请确认您配置的日志采集路径下是否有大量的日志文件,建议您定时清理,以减少ICAgent在收集日志过程中带来的系统资源占用。若还是无法解决,请联系技术支持协助。
Service,简称LTS)中,通过LTS记录的Anti-DDoS日志数据,快速高效地进行实时决策分析、设备运维管理以及业务趋势分析。 具体接入方法请参见配置Anti-DDoS日志。 父主题: 使用云服务接入LTS
0403 error_msg String 调用失败响应信息描述。 请求示例 无 响应示例 状态码:200 请求响应成功, 成功获取所有接入配置。 [ { "project_id" : "", "rule_id" : "", "rule_info" : { "cluster_id"
"target_log_stream_name" : "mysql" } } ] } } 响应示例 状态码:201 请求响应成功, 成功创建接入配置。 [ { "project_id" : "", "rule_id" : "", "rule_info" : { "cluster_id"
LIMIT 10 访问域名图表所关联的查询分析语句如下所示: SELECT http_host, count( 1 ) AS "被访问次数" GROUP BY http_host ORDER BY
调用失败响应信息描述。 枚举值: Invalid projectId 请求示例 无 响应示例 状态码:200 请求响应成功, 成功获取单个接入配置。 [ { "project_id" : "", "rule_id" : "", "rule_info" : { "cluster_id"
云日志服务与应用运维服务的日志采集开关为同步状态,即如果您在应用运维管理服务关闭了“超额继续采集日志”开关,则云日志服务的开关也同样关闭,关闭后将停止采集日志。 详细请参考配置超额采集。 父主题: 日志接入
场景描述:适用于用户将应用系统部署在云主机上,使用LTS统一采集和搜索日志的场景。用户的应用系统一般由多个组件(也称微服务)组成,每个组件部署在至少2台云主机上。 使用建议: 日志采集方式:建议使用采集器ICAgent采集日志,您需要在云主机上安装ICAgent,然后使用ECS接入配置日志采集路径
"target_log_stream_name" : "mysql" } } ] } } 响应示例 状态码:200 请求响应成功, 成功更新接入配置 { "rule_id" : "", "project_id" : "", "rule_name" : "", "rule_info"
删除日志流 功能介绍 该接口用于删除指定日志组下的指定日志流。当该日志流配置了日志转储,需要取消日志转储后才可删除。 调用方法 请参见如何调用API。 URI DELETE /v2/{project_id}/groups/{log_group_id}/streams/{log_stream_id}
afka安装目录的logs子目录下,但具体位置可能会因配置而异。以下是一些常见的方法用于找到Kafka的系统日志文件位置: 查看Kafka安装目录。 首先,检查Kafka的安装目录。通常,系统日志文件会存储在安装目录下的一个名为logs的子目录中。例如,如果Kafka安装在/us
不可见字段列表 该列表展示版面设置中配置的不可见性字段。 当日志流未配置版面设置时,将不显示按钮。 当日志内容为“CONFIG_FILE”且未配置版面设置时,不可见字段默认有appName、clusterId、clusterName、containerName、hostIPv6、NameSpa
选择已创建的日志流。 已配置过DMS转储的日志流不能重复配置。 - Kafka实例 选择Kafka实例。如果没有可选择的实例,单击“查看Kafka实例”,进入分布式消息管理控制台,创建Kafka实例。 如果Kafka实例已注册(如果未注册,请注册Kafka实例,操作指导请参见:注册Kafka实例),可以选择修改Kafka实例。
本章以将指定的一个或多个日志流的日志转储到OBS服务为例。 涉及其它云服务接口 创建OBS转储时,需要查询用户的桶列表: 获取桶列表:确定将要配置转储的桶名称。 创建OBS转储 接口相关信息 URI格式:POST /v2/{project_id}/log-dump/obs 请求示例 POST
"status", "message") 从任务高级配置构建 e_dict_map(res_local("http_code_map"), "status", "message") 其中http_code_map是任务高级配置项,值为: 从表格构建 使用tab_to_dict从表
删除日志组 功能介绍 该接口用于删除指定日志组。当日志组中的日志流配置了日志转储,需要取消日志转储后才可删除。 调用方法 请参见如何调用API。 URI DELETE /v2/{project_id}/groups/{log_group_id} 表1 路径参数 参数 是否必选 参数类型
持同时添加100个接入配置。 接入配置 接入列表 左侧显示接入配置的信息,最多支持添加99个配置。 右侧显示配置接入的内容,详细请参考步骤4:采集配置进行设置。 一个接入配置设置完成后,单击“应用于其他接入配置”即可将该接入配置复制到其他接入配置。 单击“参数检查”,检查成功后,单击“提交”,批量接入设置完成。