检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
任务完成后Container挂载的文件目录未清除 问题 使用了CGroups功能的场景下,任务完成后Container挂载的文件目录未清除。 回答 即使任务失败,Container挂载的目录也应该被清除。 上述问题是由于删除动作超时导致的。完成某些任务所使用的时间已远超过删除时间。
调测Hive应用 在本地Windows环境中调测Hive JDBC样例程序 在Linux环境中调测Hive JDBC样例程序 调测Hive HCatalog样例程序 调测Hive Python样例程序 调测Hive Python3样例程序 父主题: Hive开发指南(安全模式)
调测Hive应用 在Windows环境中调测Hive JDBC样例程序 在Linux环境中调测Hive JDBC样例程序 调测Hive HCatalog样例程序 调测Hive Python样例程序 调测Hive Python3样例程序 父主题: Hive开发指南(普通模式)
调测运行,也可以将程序编译为Jar包后,提交到Linux节点上运行。 说明: 用户还可以根据程序运行情况,对程序进行调优,使其性能满足业务场景诉求。调优完成后,请重新进行编译和运行。具体请参考中Spark2x性能调优。 在Linux环境中编包并运行Spark程序 父主题: Spark2x开发指南(安全模式)
在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -putlog1
参考使用Kafka Token认证。 运行样例代码。 在Windows环境调测程序请参考在Windows中调测程序。 在Linux环境调测程序请参考在Linux调测程序。 父主题: 调测Kafka应用
参考使用Kafka Token认证。 运行样例代码。 在Windows环境调测程序请参考在Windows中调测程序。 在Linux环境调测程序请参考在Linux调测程序。 父主题: 调测Kafka应用
Miranda,32 Karlie,23 Candice,27 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /data(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -put data /data,上传数据文件。
kinit<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop
kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop
Windows本地hosts文件存放路径举例:“C:\WINDOWS\system32\drivers\etc\hosts”。 如果使用Linux环境调测程序,需准备安装集群客户端的Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间
Windows本地hosts文件存放路径举例:“C:\WINDOWS\system32\drivers\etc\hosts”。 如果使用Linux环境调测程序,需准备安装集群客户端的Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间
Windows本地hosts文件存放路径举例:“C:\WINDOWS\system32\drivers\etc\hosts”。 如果使用Linux环境调测程序,需准备安装集群客户端的Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间
JDBC/HCatalog开发环境 准备项 说明 操作系统 开发环境:Windows系统,支持Windows7以上版本。 运行环境:Windows系统或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1
"master_node_default_group", "node_num": 2, "node_size": "rc3.4xlarge.4.linux.bigdata", "root_volume": { "type": "SAS", "size":
kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop
调测Hive应用 在Windows中调测JDBC样例程序 在Linux中调测JDBC样例程序 调测HCatalog样例程序 调测Hive SpringBoot样例程序 调测Hive Python样例程序 调测Hive Python3样例程序 父主题: Hive开发指南(普通模式)
kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop
JDBC/HCatalog开发环境 准备项 说明 操作系统 开发环境:Windows系统,支持Windows7以上版本。 运行环境:Windows系统或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1
调测Hive应用 在本地Windows环境中调测Hive JDBC样例程序 在Linux环境中调测Hive JDBC样例程序 调测Hive HCatalog样例程序 调测Hive Python样例程序 调测Hive Python3样例程序 调测Hive SpringBoot样例程序