检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
因为JDBCServer启动了Spark的动态资源分配功能,已经将shuffle托管给NodeManager,NodeManager只会按照APP的运行周期来管理这些文件,并不会关注单个executor所在的container是否存在。因此,只有在APP结束的时候才会清理这些临时文件。任务运行时间较
“单个分片的最大错误记录数”填写错误记录阈值。 在“脏数据目录”填写一个脏数据的保存位置,例如“/user/sqoop/obs2hdfs-dd”。 单击“保存并运行”。 在“管理作业界面”,查看作业运行结果。可以单击“刷新列表”获取作业的最新状态。 父主题: 使用Loader
添加用户组”。 创建一个空角色的用户组,例如,名称为“obs_hudi”,并将该用户组绑定给对应用户。 使用rangeradmin用户登录Ranger管理页面。 在首页中单击“EXTERNAL AUTHORIZATION”区域的组件插件名称“OBS”。 单击“Add New Policy”,
hadoop.com”),否则HetuEngine无法根据主机名称连接到非本集群节点。 参考创建HetuEngine权限角色创建HetuEngine管理员用户。 添加Hudi数据源步骤 获取Hudi数据源集群的“hdfs-site.xml”,“core-site.xml”配置文件。 登录H
获取当前znode的数据,可以列出当前znode所有的子znodes 写权限 write(w) 向当前znode写数据,写入子znode 管理权限 admin(a) 设置当前znode的权限 对系统的影响 修改ZooKeeper的ACL是高危操作。修改ZooKeeper中znod
MRS Fastjson漏洞修复指导 简介 影响范围 修复Manager Web 修复Manager Controller 修复Manager nodeagent 修复Kafka 修复Flink 父主题: 漏洞公告
op-common/FileSystemShell.html 表1 透明加密相关命令 场景 操作 命令 描述 hadoop shell命令管理密钥 创建密钥 hadoop key create <keyname> [-cipher <cipher>] [-size <size>]
导入(导出)文件时,可以对文件进行过滤,过滤规则同时支持通配符和正则表达式 支持批量导入/导出ETL任务 支持ETL任务分页查询、关键字查询和分组管理 对外部组件提供浮动IP 父主题: Loader
OperateAccess权限的委托,具体请参见配置存算分离集群(委托方式)。 登录主Master节点,主节点请参考如何确认MRS Manager的主备管理节点。 执行如下命令,配置环境变量。 source /opt/client/bigdata_env /opt/client为举例当前集群客户端的安装目录,请根据实际情况修改。
cluster with application id application_1624937999496_0017 JobManager Web Interface: http://192.168.1.150:32261 “flink.keystore”和“flink.truststore”文件路径为绝对路径时:
告警”页面,查看该告警的“定位信息”和“附加信息”,获取该告警上报的故障磁盘位置信息。 以root用户登录上报告警的节点,用户密码为安装前用户自定义,请咨询系统管理员,进入故障磁盘所在目录,使用ll命令查看该故障磁盘的权限是否711,用户是否为omm。 是,执行7 否,执行6。 修改故障磁盘权限,如故障磁盘为data1,则执行以下命令:
使用Spark(MRS 3.x之前版本) 从零开始使用Spark 从零开始使用Spark SQL 使用Spark客户端 访问Spark Web UI界面 Spark对接OpenTSDB
型的作业。 前提条件 提交Coordinator任务之前需要提前配置好相关的workflow作业。 操作步骤 访问Hue WebUI,请参考访问Hue WebUI界面。 在界面左侧导航栏单击,选择“计划”,打开Coordinator编辑器。 在作业编辑界面中单击“My Schedule”修改作业的名称。
获取当前znode的数据,可以列出当前znode所有的子znodes 写权限 write(w) 向当前znode写数据,写入子znode 管理权限 admin(a) 设置当前znode的权限 对系统的影响 修改ZooKeeper的ACL是高危操作。修改ZooKeeper中znod
已创建用户flume_hdfs并授权验证日志时操作的HDFS目录和数据。 确保集群网络环境安全。 操作步骤 在FusionInsight Manager管理界面,选择“系统 > 权限 > 用户”,选择“更多 > 下载认证凭据”下载用户flume_hdfs的kerberos证书文件并保存在本地。
HBase Shell接口介绍 HBase Java API接口介绍 Sqlline接口介绍 HBase JDBC API接口介绍 HBase Web UI接口介绍 父主题: HBase应用开发常见问题
HBase Shell接口介绍 HBase Java API接口介绍 Sqlline接口介绍 HBase JDBC API接口介绍 HBase Web UI接口介绍 父主题: HBase应用开发常见问题
在Hive中drop表后如何完全释放磁盘空间 JSON表中有破损数据导致Hive查询异常 Hive客户端执行SQL报错连接超时 WebHCat健康状态异常导致启动失败 mapred-default.xml文件解析异常导致WebHCat启动失败 Hive元数据使用RDS时创建视图表中文乱码 MetaStore动态分区数超出阈值导致SQL报错
无法同步时间”。 是,执行25。 否,执行35。 排查与主OMS节点NTP服务的同步是否有问题。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 使用root用户登录告警节点,执行ntpq -np命令。 如果显示结果的主OMS节点N
2及以后版本,Hudi要求0.9.0及以后版本。 参考创建FlinkServer权限角色创建一个具有FlinkServer管理员权限的用户用于访问Flink WebUI,如:flink_admin。并且用户需要添加hadoop、hive、kafkaadmin用户组,以及Manager_administrator角色。