检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在Linux系统HDFS客户端使用命令hadoop fs -put data /data,上传数据文件。 在样例代码中配置相关参数。 认证用户配置。 userPrincipal配置为所使用的用户。 userKeytabPath配置为下载的keytab文件的路径。 Krb5ConfPath配置为下载的krb5.conf文件的路径。
(1 1, 2 1, 2 2, 1 2, 1 1)) MULTIPOINT (0 0, 1 2) MULTILINESTRING ((0 0, 1 1, 1 2), (2 3, 3 2, 5 4)) MULTIPOLYGON (((0 0, 4 0, 4 4, 0 4, 0 0)
hbase com.huawei.hadoop.hbase.tools.bulkload.ImportData -Dimport.skip.bad.lines=true -Dimport.separator=',' -Dimport.bad.lines.output=/tmp/badline
/XXX/XXX),验证需要运行多久。 打印HMaster进程jstack: su - omm jps jstack pid 如下图所示,Jstack显示一直卡在DFSClient.listPaths。 图1 异常 解决办法 如果确认是HDFS性能慢导致告警,需要排除是否为旧版本中Impal
图5 完成JDK配置 将样例工程导入到IntelliJ IDEA开发环境。 选择“Open”。 显示“浏览文件夹”对话框。 选择样例工程文件夹,单击“OK”。 导入结束,IDEA主页显示导入的样例工程。 右键单击“pom.xml”,选择“Add as Maven Project”,将该项目添加为Maven
get("krb5文件路径"); // krb5.conf路径 final String principal = paraTool.get("认证用户名"); // 认证用户 System.setProperty("java
“所有”,表示删除当前所有的作业。 “指定作业”,表示指定需要删除的作业。选择“指定作业”,在作业列表中勾选需要删除的作业。 单击“确定”,开始删除作业。当弹出框中进度条显示100%,则说明作业删除完成。 父主题: 作业管理
HDFS应用开发常见问题 HDFS常用API介绍 HDFS Shell命令介绍 配置Windows通过EIP访问安全模式集群HDFS 父主题: HDFS开发指南(安全模式)
查看是否只是某一个表的region RIT状态超时。 是,执行4。 否,执行7。 图2 Tables 在客户端执行hbase hbck是否报错“No table descriptor file under hdfs://hacluster/hbase/data/default/table”。 是,执行5。 否,执行7。
"请修改为真实keytab文件名"; // 用户自己申请的机机账号名称 private static final String USER_PRINCIPAL = "请修改为真实用户名称" Low level KafkaStreams API代码样例 下面代码片段在com.huawei.bigdata
群中由KrbServer服务提供Kerberos认证支持。 Kerberos用户对象 Kerberos协议中,每个用户对象即一个principal。一个完整的用户对象包含两个部分信息:用户名和域名。在运维管理或应用开发的场景中,需要在客户端认证用户身份后才能连接到集群服务端。系统
"core_node_default_group", "instances": "1", "skip_bootstrap_scripts":false, "scale_without_start":false }, "previous_values":
spark-sql方式提交作业,可以直接在命令行中指定Keytab和Principal以获取认证,定期更新登录凭证和授权tokens,避免认证过期。 例如: spark-shell --principal spark2x/hadoop.<系统域名>@<系统域名> --keytab
图5 完成JDK配置 将样例工程导入到IntelliJ IDEA开发环境。 选择“Open”。 显示“浏览文件夹”对话框。 选择样例工程文件夹,单击“OK”。 导入结束,IDEA主页显示导入的样例工程。 右键单击“pom.xml”,选择“Add as Maven Project”,将该项目添加为Maven
Flink Flink基本原理 Flink HA方案介绍 Flink与其他组件的关系 Flink滑动窗口增强 Flink Job Pipeline增强 Flink Stream SQL Join增强 Flink CEP in SQL增强 父主题: 组件介绍
大小可进行配置),会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 表1 Hive日志列表 日志类型 日志文件名 描述 运行日志
“指定作业”:将源分组中指定的作业迁移到目标分组。选择“指定作业”,在作业列表中勾选需要迁移的作业。 单击“确定”,开始作业迁移。当弹出框中进度条显示100%,则说明作业迁移完成。 父主题: 管理Loader作业
调测Spark应用 配置Windows通过EIP访问集群Spark 在本地Windows环境中调测Spark应用 在Linux环境中调测Spark应用 父主题: Spark2x开发指南(普通模式)
eline和JDBC客户端代码两种连接方式的操作相同。 连接HA模式下的ThriftServer,连接字符串和非HA模式下的区别在于需要将ip:port替换为ha-cluster,使用到的其他参数见表1。 表1 客户端参数列表 参数名称 含义 默认值 spark.thriftserver
append(clientInfo.getAuth()) .append(";principal=") .append(clientInfo.getPrincipal()) .append(";"); } else { //