检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
void setState(long count) { this.count = count; } // 获取用户自定义状态 public long geState() { return this.count; } }
ACTIVE=10.0.0.250 审计日志 <UserName><yyyy-MM-dd HH:mm:ss,SSS><审计操作描述><资源参数><url><是否允许><审计操作><ip地址> {"username": "admin", "eventTime": "2014-11-06 10:28:34"
创建HBase表,构造数据,列需要包含key,modify_time,valid。其中每条数据key值全表唯一,modify_time代表修改时间,valid代表是否为有效数据(该样例中'1'为有效,'0'为无效数据)。 示例:进入hbase shell,执行如下命令: create 'hbase_table'
行读操作。 HDFS文件系统中目录结构如下表所示。 表1 HDFS文件系统目录结构(适用于MRS 3.x之前版本) 路径 类型 简略功能 是否可以删除 删除的后果 /tmp/spark/sparkhive-scratch 固定目录 存放Spark JDBCServer中metastore
S角色实例必须保持正常运行,恢复数据后重启NameNode。NameNode角色实例重启前无法访问。 检查NameNode备份文件保存路径是否保存在主管理节点“数据存放路径/LocalBackup/”。 恢复HDFS NameNode元数据 在FusionInsight Manager,选择“集群
概览”,选择“更多 > 同步配置”,单击“确认”完成配置同步。 登录到ClickHouse的扩容节点上,进入到以下目录,查看新增的数据目录是否已更新到配置文件中。确认无误后新增分区操作完成。 cd ${BIGDATA_HOME}/FusionInsight_ClickHouse_
IOException("input conf is invalid."); } // 2.检查文件是否存在 File userKeytabFile = new File(userKeytabPath); if
hive:使用Hive的orc相关实现。 设置为native hive spark.gluten.sql.columnar.scanOnly 是否仅开启scan加速。 设置为true,开启scanOnly模式。 false 在Spark客户端的“{客户端安装目录}/Spark/spark/conf/spark-env
s 表1 路径参数 参数 是否必选 参数类型 描述 region_id 是 String 参数解释: 区域id,例如cn-north-4。 约束限制: 不涉及 取值范围: 长度为[1-255]个字符。 默认取值: 不涉及 表2 Query参数 参数 是否必选 参数类型 描述 scope
“源端NameService名称”:填写备份数据集群的NameService名称。可在备集群HDFS服务的“管理NameService”页面获取,例如“hacluster”。 “IP 模式”:目标IP的IP地址模式。系统会根据集群网络类型自动选择对应的IP模式,如IPv4或者IPv6。
配置Flume参数“flume.config.file”时,支持“上传文件”和“下载文件”功能。上传配置文件后旧文件将被覆盖,再下载文件只能获取新文件。如果未保存配置并重启服务,那么新文件设置未生效,请及时保存配置。 修改服务配置参数后如需重启服务使配置生效,可在服务页面单击右上角“更多
Insight Manager,选择“集群 > 服务 > ZooKeeper > 实例”,查看并记录ZooKeeper角色实例业务IP地址获取。 clientPort:可在ZooKeeper的全部配置参数中搜索“clientPort”查看。默认端口如下: 开源端口默认值为:2181
uery,返回结果: ClickHouse springboot client runs normally. 通过ClickHouse日志获取应用运行情况,即日志文件:clickhouse-springboot-example.log。 运行clickhouse-springbo
ite.xml”中配置“mapreduce.job.maps”项。 说明: 指定的InputFormat类用来控制map任务个数,注意该类是否支持客户端设定map个数。 setNumReduceTasks(int n) 核心接口,指定MapReduce作业的reduce个数。默认
eeline无法承载导致。 解决办法 执行select count(*) from table_name;前确认需要查询的数据量大小,确认是否需要在beeline中显示如此数量级的数据。 如数量在一定范围内需要显示,请调整hive客户端的jvm参数, 在hive客户端目录/Hiv
job.jobId 需要执行数据备份的作业ID。 作业ID可通过登录Loader webUI在已创建的作业查看。 1 use.keytab 是否使用keytab方式登录。 true,表示使用keytab文件登录 false,表示使用密码登录。 true client.principal
CDM服务支持迁移的数据源可参考支持的数据源,数据源为Apache HDFS时,建议使用的版本为2.8.X、3.1.X,请执行搬迁前务必确认是否支持搬迁。 方案架构 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据
cation_${appid}/container_{$contid}” 运行中的任务日志存储在以上路径中,运行结束后会基于YARN的配置是否汇聚到HDFS目录中,详情请参见Yarn常用配置参数。 日志归档规则: MapReduce的日志启动了自动压缩归档功能,缺省情况下,当日志
创建HBase表,构造数据,列需要包含key,modify_time,valid。其中每条数据key值全表唯一,modify_time代表修改时间,valid代表是否为有效数据(该样例中'1'为有效,'0'为无效数据)。 示例:进入hbase shell,执行如下命令: create 'hbase_table'
test(id int) location 'obs://mrs-word001/table/'; 执行语句show tables;查看表是否存在。 执行exit;退出spark-sql命令行。 OBS文件系统打印大量日志可能导致读写性能受影响,可通过调整OBS客户端日志级别优化,日志调整方式如下: