检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
FILE_NAME); if (fSystem.delete(beDeletedPath, true)) { LOG.info("success to delete the file " + DEST_PATH + File.separator + FILE_NAME);
FILE_NAME); fSystem.deleteOnExit(beDeletedPath); System.out.println("succeed to delete the file " + DEST_PATH + File.separator + FILE_NAME);
/v2/{project_id}/clusters/{cluster_id}/job-executions 详情请参见新增并执行作业。 请求示例 POST: https://{endpoint}/v2/{project_id}/clusters/{cluster_id}/job-executions
Yarn客户端的端口信息错误导致提交任务后报错connection refused 通过Yarn WebUI查看作业日志时提示“Could not access logs page!” 通过Yarn WebUI查看队列信息时提示“ERROR 500”错误 通过Yarn WebUI页面查看作业日志提示“ERROR
对于手动迁移规则,不需要条件。 行为列表: 将存储策略设置为给定的数据层名称 迁移到其他文件夹 为文件设置新的副本数 删除文件 设置节点标签(NodeLabel) 表2 行为类型 行为类型 描述 所需参数 MARK 为确定数据的冷热度并设置相应的数据存储策略。 <param> <name>targettier</name>
e.xml中添加AK配置项“fs.obs.access.key”和SK配置项“fs.obs.secret.key”,AK/SK可登录“OBS控制台”,进入“我的凭证”页面获取。 <property> <name>fs.obs.access.key</name> <value>xx
java:169) at org.apache.hive.service.cli.operation.SQLOperation.access$200(SQLOperation.java:75) at org.apache.hive.service.cli.operation
waiting for namespace table to be assigned at org.apache.hadoop.hbase.master.TableNamespaceManager.start(TableNamespaceManager.java:98)
Topic删除操作时提示“AdminOperationException” 问题背景与现象 在使用Kafka客户端命令设置Topic ACL权限时,发现Topic无法被设置。 kafka-topics.sh --delete --topic test4 --zookeeper 10.5
iAdmin.addIndicesWithData(tableName, tableIndices); LOG.info("Successfully added indices to the table " + tableName); } catch (IOException
在原有参数后继续添加参数,逗号后需要有空格,否则作业可能执行失败。 克隆的作业返回参数不含有fs.obs.access.key、fs.obs.secret.key,若需要fs.obs.access.key、fs.obs.secret.key,需在“服务配置参数”中添加。 单击“确定”下发克隆作业。
sh install.sh upgrade & 通过tail -f nohup.out查看执行情况(打印“upgrade patch success.”表示执行完成)。 扩容节点安装补丁 将从OBS路径中下载的补丁(MRS_3.1.0_TROS_Tools_patch_20240430
DF.jar' 报以下错误: Error: Error while compiling statement: FAILED: HiveAccessControlException Permission denied: Principal [name=admin, type=USER]
实时写入接口功能,只能提供Get、Scan查询服务。 HBase双读支持以下两种方式设置主备集群的相关配置: 在“hbase-dual.xml”中新增主备集群的相关配置。 将主备集群相关配置设置到HBaseMultiClusterConnection中(仅MRS 3.3.0及之后版本支持)。
waiting for namespace table to be assigned at org.apache.hadoop.hbase.master.TableNamespaceManager.start(TableNamespaceManager.java:98)
访问Manager页面报错“请求VPC错误” 通过专线访问Manager页面方式出现503报错 登录Manager集群页面时报错“You have no right to access the page” 登录Manager时界面报错“认证信息无效” Manager界面超时退出后无法正常登录 升级Python后无法登录Manager页面
如何在Spark命令中指定参数值 问题 如果用户不希望在界面上或配置文件设置参数值,如何在Spark命令中指定参数值? 回答 Spark的配置项,不仅可以在配置文件中设置,也可以在命令中指定参数值。 在Spark客户端,应用执行命令添加如下内容设置参数值,命令执行完成后立即生效。在--conf后添加参数名称及其参数值,例如:
应用任务结束时间变长。 新应用提交后长时间无法运行。 可能原因 NodeManager节点资源过小。 队列最大资源容量设置过小,AM最大资源百分比设置过小。 监控阈值设置过小。 处理步骤 检查NodeManager节点资源 在FusionInsight Manager界面,选择“集群
ranger.plugin.viewaccesscontrol.enable设置为true。 使用非Spark-beeline方式提交作业时,需要在“客户端安装目录/Spark/spark/conf/spark-defaults.conf”中设置该参数。 使用Spark-beeli
ranger.plugin.viewaccesscontrol.enable设置为true。 使用非Spark-beeline方式提交作业时,需要在“客户端安装目录/Spark/spark/conf/spark-defaults.conf”中设置该参数。 使用Spark-beeli