检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"errorCode" : "LTS.0014", "errorMessage" : "Operation DB failed" } 状态码: 401 AuthFailed。鉴权失败, 请确认token后再次请求 。 { "error_code" : "LTS.0414",
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 201 请求响应成功, 成功创建接入配置。 400 BadRequest。非法请求。
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 请求响应成功, 成功更新接入配置 400 BadRequest。非法请求。
为云管理面上报日志的网段。因此需要配置网络打通方案,使用跳板机或VPCEP的方式去连通LTS。 选择“连通LTS后端方式”为“VPCEP”时: 配置VPCEP域名。请您在华为云网络工程师的协助下,在区域外云上配置VPCEP的DNS域名解析规则,将VPCEP的域名解析到指定IP。配
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
"details" : "update favorite failed" } } 状态码: 500 表明服务端能被请求访问到,但是服务内部出错 { "message" : { "code" : "LTS.0203", "details" : "Internal
Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。 用户使用Flume系统采集日志,并且通过LTS侧提供的KAFKA协议方式上报日志。以下是部分常用数据采集场景示例:
0.23 新增支持快应用上报。 1.0.21 废弃config方法,优先使用new SDK创建一个新的实例。 去除代码中对三方包的依赖和存在的中文符号。 1.0.19 修改时间阈值的范围从1-60改为1-1800,其默认值从30改为3。 1.0.18 调整日志级别等级。 支持labels嵌套。
ana的简称,它们组合起来提供了业界最常用的日志分析和可视化工具。 Elasticsearch是一个基于Lucene的开源、分布式、RESTful搜索和分析引擎。 Logstash是一个开源的、服务器端的数据处理管道,能够同时从多个来源实时接收、转换并将数据发送到用户选择的“存储库”。通常用于日志的收集、过滤和转发。
最大长度:32 be_agency_domain_id String 被委托方账号ID,实际配置转储的账号ID 最小长度:1 最大长度:128 be_agency_project_id String 被委托方项目ID,实际配置转储的账号的项目ID 最小长度:32 最大长度:32 表9
403 LTS.0003 No permission. 非法的角色 请授予LTS服务权限 403 LTS.0011 Invalid projectId 非法的projectId 请确认URL中的projectId与token中的projectId一致 500 LTS.0107 Current
(其中pathFile为默认的必传字段,其余字段可选) custom_key_value 否 Map<String,String> 自定义键值对:配置日志接入规则时,可以配置自定义键值对规则,上报日志后,每条日志数据的标签数据中将会有用户自定义的键值对字段,键值对数量不超过20 键的长度限制为1
当转储其他账号时,需填写委托人在IAM中创建的委托名称。 - 委托人账号名称 当转储其他账号时,需填写委托人的账号名称。 - 是否开启转储 默认开启转储。 开启 转储对象 选择转储的云服务。 OBS 日志组名称 选择已创建的日志组。 - 企业项目 选择已创建的企业项目。 如果当前账号未开通企业项目则不显示该参数。
返回所提供的基于0的索引处的数组元素。 mv_ordinal函数 返回所提供的基于1的索引处的数组元素。 mv_offset_of函数 返回数组中第一次出现expr的基于0的索引,如果未出现,则返回-1。 mv_ordinal_of函数 返回数组中第一次出现expr的基于1的索引,如果未出现,则返回-1。
scala:220) 日志内容 记录了具体的日志信息,可能是描述性的文本、错误消息、堆栈跟踪等。 starting 日志位置 默认情况下,Kafka的系统日志文件可能位于Kafka安装目录的logs子目录下,但具体位置可能会因配置而异。以下是一些常见的方法用于找到Kafka的系统日志文件位置: 查看Kafka安装目录。
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 201 创建仪表盘分组成功 400 BadRequest 非
且body体中除start_time与end_time以外的参数失效,分页、排序、查询结果条数等功能请依照sql语法规则实现。查询结果的响应体不同于未启用时的查询方式,将以默认列存的形式返回查询结果。当前仅对内测用户开放。响应示例:{"analysisLogs":[{"field1":"1"
String 是 被解码的值。 format String 否 Base64解码协议。默认为format=RFC3548,还可以配置为format=RFC4648。 说明: RFC4648的Base64解码协议使用等号(=)将被解码的值填充到4字节的倍数。 返回结果 返回解码后的字符串。 函数示例
从值或时间表达式中截取指定的时间粒度。 dt_add 根据指定的时间粒度修改值或时间表达式的值。 dt_MO dt_add函数中传递给weekday参数的值,用于表示特定星期一的偏移量。 dt_TU dt_add函数中传递给weekday参数的值,用于表示特定星期二的偏移量。 dt_WE
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 201 请求响应成功, 成功创建日志组。 400 BadRequest。非法请求。