检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
日志文件较大,可以将此文件目录添加到“/etc/logrotate.d/syslog”中,让系统做日志老化 ,定时清理久远的日志 。 更改文件日志目录:sed -i '3 a/var/log/sudo/sudo.log' /etc/logrotate.d/syslog 可以根
hdfs.mkdirs(dfs); } } 查看HDFS文件的最后修改时间 通过FileSystem.getModificationTime()可查看指定HDFS文件的修改时间。 正确示例: public static void main(String[]
on HBase 程序-分布式Scan HBase表 Java SparkOnHbaseScalaExample-HBaseDistributedScanExample Spark on HBase 程序-分布式Scan HBase表 Scala SparkOnHbasePytho
on HBase 程序-分布式Scan HBase表 Java SparkOnHbaseScalaExample-HBaseDistributedScanExample Spark on HBase 程序-分布式Scan HBase表 Scala SparkOnHbasePytho
HetuEngine数据类型隐式转换 开启HetuEngine数据类型隐式转换 关闭HetuEngine数据类型隐式转换 HetuEngine隐式转换对照表 父主题: HetuEngine常见SQL语法说明
COLUMNS命令用于为现有表添加新列。 命令语法 ALTER TABLE tableIdentifier ADD COLUMNS(colAndType (,colAndType)*) 参数描述 表1 ADD COLUMNS参数描述 参数 描述 tableIdentifier 表名。 colAndType
有新数据到来时,OVER聚合结果刷新并向下游算子发送最新的计算结果,可通过over.window.interval配置该功能,配置如下: 表1 FlinkSQL OVER窗口数据超期退窗功能 参数名称 默认值 说明 over.window.interval -1 相邻2条数据的时
Join样例程序 Flink Jar作业提交SQL样例程序 FlinkServer REST API样例程序 Flink读取HBase表样例程序 Flink读取Hudi表样例程序 PyFlink样例程序 父主题: Flink开发指南(安全模式)
Join样例程序 Flink Jar作业提交SQL样例程序 FlinkServer REST API样例程序 Flink读取HBase表样例程序 Flink读取Hudi表样例程序 PyFlink样例程序 父主题: Flink开发指南(普通模式)
ma失败报Access Denied Presto的coordinator进程无法正常启动 Presto查询Kudu表时系统报错找不到表 Presto查询Hive表无数据 MRS Presto查询报错“The node may have crashed or be under too
支持任何字符串。默认使用操作系统的换行符。 string 否 \n 输出字段 配置输出信息: 位置:配置输出字段的位置。 字段名:配置输出字段的字段名。 类型:配置字段类型,字段类型为“DATE”或“TIME”或“TimeStamp”时,需指定特定时间格式,其他类型指定无效。时间格式如:“yyyyMMdd
Storm应用开发常用概念 Topology 拓扑是一个计算流图。其中每个节点包含处理逻辑,而节点间的连线则表明了节点间的数据是如何流动的。 Spout 在一个Topology中产生源数据流的组件。通常情况下Spout会从外部数据源中读取数据,然后转换为Topology内部的源数据。
archiveNums=> 'archive_commits_retained') 参数描述 表2 参数描述 参数 描述 是否必填 tables 待执行表服务的表名列表。 多个表名以“;”分隔。 是 cleanNums clean保留commits次数。 否 archiveNums
Spark SQL ROLLUP和CUBE使用的注意事项 问题 假设有表src(d1, d2, m),其数据如下: 1 a 1 1 b 1 2 b 2 对于语句select d1, sum(d1) from src group by d1, d2 with rollup其结果如下:
DROP TABLE 语法 DROP TABLE [ IF EXISTS ] table_name 描述 删除存在的表。 可选参数IF EXISTS指定时,如果删除的表不存在,则不会报错。 被删除的数据行将被移动到HDFS的回收站。 示例 create table testfordrop(name
on.properties 将PMS进程的内存配置参数“pms.mem”根据实际情况调大,保存并退出。 ... pms.mem=800m 修改的新值的增长量不能大于操作系统可用剩余内存。 执行以下命令查找PMS进程的PID,并终止PMS进程,等待进程重新启动。 ps -ef | grep
该操作指导用户调整DBService备份任务的超时时间。 前提条件 DBService服务运行正常。 操作步骤 以omm用户登录集群主OMS节点,修改配置文件“${CONTROLLER_HOME}/etc/om/controller.properties”中参数“controller.backup
WebUI,请参考访问Hue WebUI界面。 在界面左侧导航栏单击,选择“Bundle”,打开Bundle编辑器。 在作业编辑界面中单击“My Bundle”修改作业的名称。 单击“+添加Coordinator”选择需要编排的Coordinator作业。 根据界面提示设置Coordinator任务调
作业浏览器显示的数字表示集群中所有作业的总数。 “作业浏览器”将显示作业以下信息: 表1 MRS作业属性介绍 属性名 描述 名称 表示作业的名称。 用户 表示启动该作业的用户。 类型 表示作业的类型。 状态 表示作业的状态,包含“成功”、“正在运行”、“失败”。 进度 表示作业运行进度。
如果用户需要不通过FusionInsight Manager访问Spark JobHistory页面,则需要将URL地址中的<hostname>更改为IP地址进行访问,或者在Windows系统的hosts文件中添加该域名信息。 父主题: Spark Core