检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
字段的值设置为Number。如果data字段的值为123,则将__topic__字段的值设置为PRO。 测试数据 { "__topic__": , "age": 18, "content": 123, "name":"maki", "data": 342 } { "__topic__":
GaussDB(DWS) 数据仓库服务(Data Warehouse Service,简称DWS)是完全托管的企业级云上数据仓库服务,具备高性能、低成本、易扩展等特性,满足大数据时代企业数据仓库业务诉求。适用于对海量日志进行存储,分析等场景。 数据湖探索 DLI 数据湖探索(Data Lake Ins
csv(res_obs_file("https://obs.xxx.myhuaweicloud.com","dsl-test-xx","data.csv")),"account","nickname") res_obs_file函数重要字段说明如下表所示,更多参数说明请参见资源函数。
反转后的字符串。 函数示例 测试数据 { "data": "switch" } 加工规则 e_set("reverse_data", str_reverse(v("data"))) 加工结果 data: switch reverse_data: hctiws str_replace
函数示例 测试数据 { "str_en": "data to be encoded" } 加工规则 e_set("str_base64",base64_encoding(v("str_en"))) 加工结果 str_en : data to be encoded str_base64
测试数据 { "data": "1959903232" } 加工规则 e_set("ip",long2ip(v("data"))) 加工结果 data: 1959903232 ip: 116.209.192.0 转换失败后自定义的错误处理。 测试数据 { "data": "4294967296"
gz文件安装的Grafana: ./bin/grafana-server web 添加数据源 在左侧菜单栏中,单击 选择Data Sources,进入Data Sources页面,单击Add data source,添加数据源,选择hws-lts-grafana-datasource-plugin。
writeLog(res, pathFile): data = res.get('hits').get('hits') i = 0 while i < len(data): log = data[i].get('_source').get('content')
最大长度:256 connect_info 是 connect_info object kafka连接信息。购买kafka时,SASL_SSL是否配置,如果有,则需要填写账号密码 表4 connect_info 参数 是否必选 参数类型 描述 user_name 否 String
、存储查询及机器学习,还能用于数据丢失或异常后的恢复和故障分析。同时大量小文本文件可合并转储为大文件,提高数据处理性能。 数据接入服务(Data Ingestion Service,简称DIS) 通过AOM服务,可以进行站点访问统计,可以将相关日志上报给AOM,对其进行监控与告警。
函数将时间对齐到小时。 查询和分析语句 * | SELECT t_time, ts_compare(PV, 86400) AS data FROM( SELECT to_unixtime(date_trunc('hour', __time)) AS t_time
__time)表示使用date_trunc函数将时间对齐到小时。 查询和分析语句 SELECT t_time, ts_compare(PV, 86400) AS data FROM( SELECT date_trunc('hour', __time) AS t_time, count(*)
"message level is info_" } 加工规则 e_set("data_translate", str_translate(v("content"),"aeiou","12345")) 加工结果 { "data_translate": "m2ss1g2 l2v2l 3s 3nf4_"
组件/服务 IP地址 说明 openstack http://169.254.169.254/openstack/latest/meta_data.json 获取节点元数据,节点名称和节点id。 http://169.254.169.254/openstack/latest/securitykey
"x$LOG_DIR" = "x" ]; then # LOG_DIR="$base_dir/logs" LOG_DIR="/data/kafka_logs" fi 父主题: 自建中间件
saved_cursor:1469780553885742676 seek count:62900 seek data redo log:pangu://localcluster/redo_data/41/example/2016_08_30/250_1472555483 user_curso
convert(row, i)); } LOGGER.debug("row data convert to lts log, data is {}", contentMap); // logTimeNs是必填字段,获取当前时间
range(0, 3): data = bytes("${message}", encoding="utf-8") future = producer.send("${logGroupId}_{logStreamId}", data) result = future
bucket String 是 OBS中使用的桶名,如lts-dsl。 file String 是 目标OBS文件的路径。例如test/data.txt,不能以正斜线(/)开头。 返回结果 返回字节流形式或文本形式的文件数据。 函数示例 示例1:从OBS中拉取JSON格式的数据。
转储任务一旦删除将不再对日志进行转储,请谨慎操作。 删除转储任务后,之前已经转储日志将会继续保存在DIS。 当删除该转储任务时,请在数据接入服务(Data Ingestion Service,DIS)中,单击“通道管理”,选择该DIS实例进入实例详情页面。在授权管理中,删除上传权限。 父主题: