检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在搜索框中输入参数名称,搜索“hive.security.temporary.function.need.admin”,修改参数值为“true”或“false”,修改后重启所有HiveServer实例。 选择“true”时,创建临时函数需要ADMIN权限,与开源社区版本保持一致。 选
0”。编译环境因为一些配置原因导致maven未能通过os正确解析该变量时,可采用手动修改pom.xml方式进行规避正确编译。 在pom.xml中手动修改直接或间接依赖hbase-common模块的dependency,修改为如下形式,排除commons-crypto依赖。 <dependency>
conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。
创建HDFS目录 功能简介 创建目录过程为: 调用FileSystem实例的exists方法查看该目录是否存在。 如果存在,则直接返回。 如果不存在,则调用FileSystem实例的mkdirs方法创建该目录。 代码样例 如下是写文件的代码片段,详细代码请参考com.huawei
Manager中找不到用户管理页面? 答: 当前登录用户没有Manager_administrator角色权限,所以在MRS Manager中无法查看“用户管理”相关内容。 请使用admin用户或者其他具有Manager管理权限的用户重新登录Manager。 父主题: Web页面访问类
Journalnode数据不同步告警。 原因分析 登录告警节点,查找日志路径“/var/log/Bigdata/hdfs/nn”下Journalnode实例的startDetail.log日志信息,发现Journalnode实例停止过。 分别查看告警节点和其他JournalNode节点的“/sr
问题 在执行大数据量的Spark任务(如100T的TPCDS测试套)过程中,有时会出现Executor丢失从而导致Stage重试的现象。查看Executor的日志,出现“Executor 532 is lost rpc with driver,but is still alive
为避免出现这种场景,您可以参考修改集群服务配置参数,进入Yarn“全部配置”页面。在搜索框搜索“yarn.nodemanager.linux-container-executor.cgroups.delete-timeout-ms”配置项来修改删除时间的时长。参数值的单位为毫秒。
0-LTS版本集群,提交Spark Streaming任务后,由于NodeAgent重启导致对应节点上任务失败,但是在Yarn WebUI页面中查看整个任务状态为“succeeded”。 原因分析 Spark AM退出时,因为服务配置参数“spark.streaming.stopGra
创建HDFS目录 功能简介 创建目录过程为: 调用FileSystem实例的exists方法查看该目录是否存在。 如果存在,则直接返回。 如果不存在,则调用FileSystem实例的mkdirs方法创建该目录。 代码样例 如下是写文件的代码片段,详细代码请参考com.huawei
Spark SQL样例程序(Scala) 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码样例 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples.FemaleInfoCollection: object
单击“Apply”。 选择“Modules”,在“Source”页面,修改“Language level”为“8 - Lambdas, type annotations etc.”。 在“Dependencies”页面,修改“Module SDK”为“SDKs”中添加的JDK。 单击“Apply”,单击“OK”。
选择“Modules”,在“Source”页面,修改“Language level”为“8 - Lambdas, type annotations etc.”。 图5 配置Modules 在“Dependencies”页面,修改“Module SDK”为“SDKs”中添加的JDK。 图6 修改“Module SDK”
在Manager页面,选择“集群 > 服务 > Oozie > 配置 > 全部配置”,修改oozie的服务配置参数“oozie.processing.timezone”值为“GMT+0800”(修改配置需要重启服务生效)。 在Oozie编辑器页面,提交Coordinator定时调度
0”。编译环境因为一些配置原因导致maven未能通过os正确解析该变量时,可采用手动修改pom.xml方式进行规避正确编译。 在pom.xml中手动修改直接或间接依赖hbase-common模块的dependency,修改为如下形式,排除commons-crypto依赖。 <dependency>
0”。编译环境因为一些配置原因导致maven未能通过os正确解析该变量时,可采用手动修改pom.xml方式进行规避正确编译。 在pom.xml中手动修改直接或间接依赖hbase-common模块的dependency,修改为如下形式,排除commons-crypto依赖。 <dependency>
hadoop.hbase.Result,新增如下接口: 方法 说明 public FSFile getFile(String fileName) 从查询结果中返回指定文件名的FSFile文件对象。 org.apache.hadoop.hbase.filestream.client.FSFile接口:
Flink企业级能力增强 Flink SQL语法增强 多流Join场景支持配置表级别的TTL时间 配置Flink SQL Client支持SQL校验功能 Flink作业大小表Join能力增强 FlinkSQL OVER窗口支持超期退窗 FlinkSQL Kafka和upsert-kafka
该报错是由于未启用SFTP服务导致。 处理步骤 执行以下命令修改sshd_config配置,并保存退出。 cd /etc/ssh vi sshd_config Subsystem sftp /usr/libexec/openssh/sftp-server 图2 修改sshd_config文件 执行以下命令重启SFTP服务。
单击“Apply”。 选择“Modules”,在“Source”页面,修改“Language level”为“8 - Lambdas, type annotations etc.”。 在“Dependencies”页面,修改“Module SDK”为“SDKs”中添加的JDK。 单击“Apply”,单击“OK”。