检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
行搜索。初次使用时,LTS已默认进行了分词配置,默认配置的分词符为: , '";=()[]{}@&<>/:\\?\n\t\r 若默认分词符不能满足您的需求时,可按照如下操作进行自定义配置。 注意事项 分词配置只会对配置时间点以后生成的日志生效,之前的日志按照之前配置的分词符进行处理。
ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 kafka_topic String DMS转储kafka topic。 创建DMS转储前,需要使用kafka ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 obs_transfer_path
将解压后的xcframework静态库添加到您的项目工程中。 待导入的xcframework静态库必须和工作空间在相同的磁盘空间里,如果不在,您可以选择注意勾选“Copy items if needed”和“Create groups”,将待导入的xcframework库工程文件复制到工作空间。 初始化,详细参数请参考表4。
目前华为云主机rsyslog服务器默认未配置接收远程syslog写入,需要手动开启。 已登录云主机。 修改rsyslog配置文件。 vi /etc/rsyslog.conf 配置文件中添加以下内容,开启tcp udp远程接收。 Provides UDP syslog reception $ModLoad
终端节点 终端节点即调用API的请求地址,不同服务在不同区域的终端节点不同,您可以从地区和终端节点中查询所有服务的终端节点。 基本概念 账号 用户注册时的账号,账号对其所拥有的资源及云服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议您不
当前仅华北-北京四、华东-上海一、华南-广州区域的白名单用户支持使用该功能,如有需要请提工单申请。 传输协议 HTTPS 使用前提 参考注册华为账号并开通华为云中操作,完成注册。 确认云日志服务的区域,请您根据所在区域,选择RegionName。 获取华为云账号的项目ID(project id),步骤参考:请参见“我的凭证
截断丢弃。 采集二进制文件 云日志服务支持采集二进制文件。 您可以通过命令(file -i 文件名)查看文件类型,如果包含charset=binary,那么该日志文件就是二进制文件。 当日志的文件类型为二进制时,开启采集二进制文件按钮,则对接入的二进制文件日志进行采集,但仅支持U
true/false, 默认为 true prefix_name 否 String 转储至OBS桶中的日志文件前缀。 dir_prefix_name 否 String 自定义文件夹路径。 period 是 Integer 转储周期的长度 period_unit 是 String 转储周期的单位。>
2023-10-23T15:46:30.123Z log.origin.file.name 生成日志条目的源文件名。 Elasticsearch.java log.origin.file.line 生成日志条目的源文件行号。 123 message 实际的日志消息内容。 version[7.17.2],
截断丢弃。 采集二进制文件 云日志服务支持采集二进制文件。 您可以通过命令(file -i 文件名)查看文件类型,如果包含charset=binary,那么该日志文件就是二进制文件。 当日志的文件类型为二进制时,开启采集二进制文件按钮,则对接入的二进制文件日志进行采集,但仅支持U
ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 kafka_topic String DMS转储kafka topic。 创建DMS转储前,需要使用kafka ID以及kafka Topic进行实例注册。详情见接口注册DMSkafka实例 obs_transfer_path
configProps = new Properties(); // 认证用的ak和sk硬编码到代码中或者明文存储都有很大的安全风险, 建议在配置文件或者环境变量中密文存放, 使用时解密, 确保安全 // LTS 日志服务所属region configProps.put(ConfigConstants
创建访问密钥成功后,您可以在访问密钥列表中查看访问密钥ID(AK),在下载的.csv文件中查看访问密钥(SK)。 请及时下载保存,弹窗关闭后将无法再次获取该密钥信息,但您可重新创建新的密钥。 当您下载访问密钥后,可以在浏览器页面左下角打开格式为.csv的访问密钥文件,或在浏览器“下载内容”中打开。 为了账号安全性,
用户机器已经安装了JDK。 用户已经安装Flume,并且需要在Flume中配置文件中配置JDK路径。 使用Flume采集文本日志上报到LTS 支持使用Flume采集文本日志内容上报至LTS,参考如下示例添加采集文本日志的conf文件。以下示例中的参数介绍请参考使用KAFKA协议上报日志。 #Named
用户机器已经安装了JDK。 用户已经安装Flume,并且需要在Flume中配置文件中配置JDK路径。 使用Flume采集文本日志上报到LTS 支持使用Flume采集文本日志内容上报至LTS,参考如下示例添加采集文本日志的conf文件。以下示例中的参数介绍请参考使用KAFKA协议上报日志。 #Named
_tag文件中,添加主机组自定义标识,可以将主机加入到该主机组下。例如:主机组的自定义标识为test,则在custom_tag文件中填写test,就可以将主机加入到该主机组下。 当添加了多个自定义标识时,在主机里/opt/cloud/lts目录下的custom_tag文件中,任意
已在DLI中创建数据库和表,创建数据库表时数据位置选择OBS,数据格式选择JSON。详细操作请参见创建数据库和表。 已在DLI中创建队列,该队列将用来将数据导入DLI的表中。详细操作请参见创建队列。 日志转储至DLI 登录云日志服务控制台,在左侧导航栏中选择“日志转储 ”。 在“日志转储”页面中,单击右上角“配置转储”。
请参考如何获取访问密钥AK/SK。 说明: 请确保公共用户账号及其创建的AK/SK不会被删除或禁用。AK/SK被删除,会导致安装的ICAgent无法正常上报数据到LTS。 选择“创建IAM委托”,不需要获取访问密钥,通过创建委托ICAgent可以自动获取AK/SK(访问密钥),安装ICAgent时不需要输入AK/SK。
lts-flink-connector仅保证At-Least-Once语义。 lts-flink-connector source和sink日志不能为同一个日志流。 flink消费保证最终一致性,即您可以获取到这条日志流的全部内容,但由于时间为服务端时间,所以在获取日志流的过程中,可能
我们会尽快回复。 公司注册地址:贵州省贵安新区黔中大道交兴功路华为云数据中心。 如果您对我们的回复不满意,特别是当我们的个人信息处理行为损害了您的合法权益时,您还可以通过向有管辖权的人民法院提起诉讼、向行业自律协会或政府相关管理机构投诉等外部途径进行解决。您也可以向我们了解可能适用的相关投诉途径的信息。