检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
恢复数据目录及其子目录的属组为omm:wheel。 检查数据目录所在磁盘是否故障。 使用omm用户,在所提示的数据目录的上一级目录下,进行创建、删除文件测试,看能够正常读写磁盘。 是,执行6。 否,执行5。 更换或者修复数据目录所在磁盘,保证其可以正常读写。 在FusionInsight Manager首页,选择“集群
kudu-master.INFO kudu-master.WARNING 运行日志分ERROR、INFO、WARNING三类,每类会单独打印到相应的文件中,通过cat命令即可查看。 已知Kudu服务异常处理 日志“/var/log/Bigdata/kudu/runninglog/master/logs/kudu-master
2018-05-08 21:29:17,328 INFO [main] input.FileInputFormat: Total input files to process : 1 2018-05-08 21:29:17,413 INFO [main] mapreduce.JobSubmitter:
码“hdfs-c-example/hdfs_test.c”文件。 设置HDFS NameNode参数,建立HDFS文件系统连接。 hdfsFS fs = hdfsConnect("default", 0); fprintf(stderr, "hdfsConnect- SUCCESS
S/hdfs-c-example/hdfs_test.c”文件。 设置HDFS NameNode参数,建立HDFS文件系统连接。 hdfsFS fs = hdfsConnect("default", 0); fprintf(stderr, "hdfsConnect- SUCCESS
Ranger策略可以匹配到Hive库表的文件或目录权限,则优先使用HDFS Ranger策略。 MRS 3.3.0及之后版本,如果已参考Hive表支持级联授权功能章节开启了Hive表的级联授权功能,则无需对表所在的HDFS路径进行授权操作。 Ranger策略中的URL策略是Hive表存储在OBS上的场景
用户组、权限等是否正常。正常用户、用户组、权限为“omm:ficommon 750”。 是,执行1.f。 否,执行1.e。 执行如下命令将文件夹权限修改为“750”,并将“用户:属组”修改为“omm:ficommon”。 chmod 750 <folder_name> chown
/om/sbin/status-oms.sh命令来查看当前Manager的双机信息。 执行ps -ef | grep slapd,查询配置文件位于“${BIGDATA_HOME}/om-server/om/”路径下面的LdapServer资源进程是否正常。 判断资源正常有两个标识:
幂等性不保证。 开启方法: 二次开发代码中添加 “props.put(“enable.idempotence”,true)”。 客户端配置文件中添加 “enable.idempotence = true”。 Kafka Transaction 特性 特性说明:Kafka在0.11
幂等性不保证。 开启方法: 二次开发代码中添加“props.put(“enable.idempotence”,true)”。 客户端配置文件中添加“enable.idempotence = true”。 Kafka Transaction特性 特性说明:Kafka在0.11版本
若Streaming应用中使用了state函数,则不允许开启对接Kafka可靠性功能。 配置描述 在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数说明 参数 说明 默认值 spark.streaming.Kafka.reliability Spark Stre
检查应用访问HBase并发数。 登录安装HBase客户端的节点,查看“客户端安装目录/HBase/hbase/conf/hbase-site.xml”文件中“hbase.client.ipc.pool.size”是否配置且参数值是否配置过大。 是,执行3。 否,执行5。 适当调小“hbase
initializationmonitor.haltontimeout被启动,默认为false)。 在HMaster主备倒换或启动期间,如果WAL HLog文件存在,它会初始化WAL splitting任务。如果WAL HLog splitting任务完成,它将初始化表region分配任务。 HM
务需求,您还可以变更计费模式。详细介绍请参见变更计费模式概述。 计费项 MRS集群的计费项由MRS服务管理费用和IaaS基础设施资源费用(弹性云服务器,云硬盘)组成。如需了解每种计费项的计费因子、计费公式等详细信息,请参考计费项。 如需了解实际场景下的计费样例以及各计费项在不同计
点”,进入“配置Task节点”页面。 配置“节点类型”、“节点规格”、“节点数量”、“系统盘”,如开启“添加数据盘”后,还需要配置数据盘的存储类型、大小和数量。 单击“确定”。 弹性伸缩规则与资源计划叠加使用 登录MRS管理控制台。 选择“现有集群”,单击待操作的集群名称,进入集群详情页面。
最多为1023字符,不能包含;|&>'<$特殊字符,可为空。 默认取值: 不涉及 job_log 否 String 参数解释: 作业日志存储地址,该日志信息记录作业运行状态。 约束限制: 不涉及 取值范围: 必须以“/”或“s3a://”开头,请配置为正确的OBS路径。 最多为
opengauss drs-opengauss-json Avro Schema Topic Ogg Kafka使用的Schema Topic以JSON格式存储表的Schema。 说明: “Datastore Type”为“ogg”(MRS 3.3.0及之后版本为“ogg-oracle-avro”)显示该参数。
启动服务健康检查”,启动服务健康检查。 设置定期自动健康检查: 单击“系统设置”,单击“维护”下方的“健康检查”,单击“健康检查配置”。 配置“健康检查报告文件最大份数”,该值必须是整数,取值范围1~100。 单击“定期健康检查”的开关开启该功能,启用后根据运维需要选择检查周期为“每天”、“每周”或“每月”,单击“确定”保存配置。
testtb1 on cluster default_cluster; dynamic_0001 扫描文件数超限制。 Hive Spark HetuEngine 计划/已经扫描的文件数量阈值。 建议配置值:100000 SELECT ss_ticket_number FROM store_sales
通过客户端命令klist查询当前认证用户: [root@10-10-144-2 client]# klist Ticket cache: FILE:/tmp/krb5cc_0 Default principal: test@HADOOP.COM Valid starting