检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
应用示例 示例1:创建日志组 示例2:查询账号下所有日志组 示例3:创建日志流 示例4:查询指定日志组下的所有日志流 示例5:创建OBS转储
状态码 状态码如表1所示 表1 状态码 状态码 返回值 状态码说明 200 OK GET和PUT操作正常返回。 201 OK POST请求成功,返回查询结果。 204 No Content DELETE操作正常返回。 400 Bad Request 请求错误。 401 Unauthorized
示例3:创建日志流 场景描述 本章以创建某个指定日志组下的日志流为例。 涉及其它云服务接口 无。 创建日志流 接口相关信息 URI格式:POST /v2/{project_id}/groups/{log_group_id}/streams 请求示例 POST https://{e
示例1:创建日志组 场景描述 本章以创建一个LTS的日志组为例。 涉及其它云服务接口 无。 创建日志组 接口相关信息 URI格式:POST /v2/{project_id}/groups 请求示例 POST https://{endpoint}/v2/{project_id}/groups
查塔姆群岛 Chatham Islands Pacific/Chatham UTC+12:45 萨摩亚群岛 Samoa Pacific/Apia UTC+13:00 努库阿洛法 Nuku alofa Pacific/Tongatapu UTC+13:00 圣诞岛 Kiritimati
示例5:创建OBS转储 场景描述 本章以将指定的一个或多个日志流的日志转储到OBS服务为例。 涉及其它云服务接口 创建OBS转储时,需要查询用户的桶列表: 获取桶列表:确定将要配置转储的桶名称。 创建OBS转储 接口相关信息 URI格式:POST /v2/{project_id}/log-dump/obs
示例2:查询账号下所有日志组 场景描述 本章以查询账号下所有日志组信息为例。 涉及其它云服务接口 无。 查询日志组 接口相关信息 URI格式:GET /v2/{project_id}/groups 请求示例 GET https://{endpoint}/v2/{project_id}/groups
根据提示输入待安装ICAgent的服务器root用户密码。 如果已安装ICAgent的服务器安装过expect工具,执行上述命令后,即可完成安装。如果已安装ICAgent的服务器未安装expect工具,请根据提示输入密码,进行安装。 请确保已安装ICAgent的服务器可以使用root用户执行SS
获取账号ID、项目ID、日志组ID、日志流ID 获取账号ID和项目ID 在调用接口的时候,部分URL中需要填入账号ID(domain-id)和项目ID,获取步骤如下: 注册并登录管理控制台。 单击用户名,在下拉列表中单击“我的凭证”。 在“我的凭证”页面查看账号ID和项目ID。
分析,提升运维和运营效率,建立海量日志处理能力。 LTS-Flink-Connector工具支持以下表1。 表1 功能说明 功能 说明 支持类型 源表和结果表 运行模式 仅支持流模式 API种类 SQL 是否支持更新或删除结果表数据 不支持更新和删除结果表数据,只支持插入数据。 使用限制
示例4:查询指定日志组下的所有日志流 场景描述 本章以查询指定日志组下的所有日志流信息为例。 涉及其它云服务接口 无。 查询日志流 接口相关信息 URI格式:GET /v2/{project_id}/groups/{log_group_id}/streams 请求示例 GET h
ctor工具用于对接flink,包括消费者(Consumer)和生产者(Producer)两部分。 消费者用于从云日志服务中读取数据,支持exactly once语义,支持shard负载均衡,生产者用于将数据写入云日志服务,使用LTS-Flink-Connector工具时,需要在项目中添加maven依赖:
无法查看上报到LTS的日志怎么办? 问题描述 在云日志服务LTS控制台无法查看上报到LTS的日志。 可能原因 未安装ICAgent日志采集工具。 采集路径配置错误。 LTS控制台上的“配置中心 > ICAgent采集开关”未开启。 “超额继续采集日志”开关未开启。 当前账号欠费,故采集器停止采集。
终端节点,根据自己的区域选择不同的终端节点。可参考地区和终端节点。 - projectId 账户的projectId。 登录LTS控制台,单击账号名称>我的凭证>API凭证,在API凭证页面中,可直接复制所属区域对应的项目ID。 - Log StreamId 已配置结构化的日志流Id。 登录LTS控制台,在日志
终端节点,根据自己的区域选择不同的终端节点。可参考地区和终端节点。 - projectId 账户的projectId。 登录LTS控制台,单击账号名称>我的凭证>API凭证,在API凭证页面中,可直接复制所属区域对应的项目ID。 - Log StreamId 已配置结构化的日志流Id。 登录LTS控制台,在日志
终端节点,根据自己的区域选择不同的终端节点。可参考地区和终端节点。 - projectId 账户的projectId。 登录LTS控制台,单击账号名称>我的凭证>API凭证,在API凭证页面中,可直接复制所属区域对应的项目ID。 - Log GroupId 已配置结构化的日志组Id。 登录LTS控制台,在日志管
终端节点,根据自己的区域选择不同的终端节点。可参考地区和终端节点。 - projectId 账户的projectId。 登录LTS控制台,单击账号名称>我的凭证>API凭证,在API凭证页面中,可直接复制所属区域对应的项目ID。 - Log GroupId 已配置结构化的日志组Id。 登录LTS控制台,在日志管
使用定时SQL进行日志加工 使用FunctionGraph服务提供的函数模板进行日志加工 日志生成指标(邀测) 使用消费组管理消费数据(邀测) 使用SDK-API消费日志(邀测)
Linux系统的主机。 查询API相关接口文档。 通过查询日志转储API获取到所有转储任务的信息。 通过更新日志转储API将转储任务配置的时区修改。 在API Explorer中测试API功能,API Explorer提供API检索及平台调试能力。 参考API Explorer示例代码,在主机上安装Python
使用KAFKA协议上报日志到LTS 您可以通过Kafka协议上报日志到日志服务,目前支持各类Kafka Producer SDK或采集工具,仅依赖于Kafka协议。支持以下场景: 场景1:已有基于开源采集的自建系统,仅修改配置文件便可以将日志上报到 LTS,例如Logstash。