检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
append(clientInfo.getAuth()) .append(";principal=") .append(clientInfo.getPrincipal()) .append(";"); } else { //
如何通过Yarn WebUI查看Hive作业对应的SQL语句? 如何查看指定Yarn任务的日志? 添加Hive服务后,提交hivesql/hivescript作业失败如何处理? Spark Job对应的运行日志保存在哪里? 执行Spark任务报内存不足告警如何处理? 修改hdfs-site.x
个vector容器,导致查询queries数据时coredump重启。 开启haproxyfloatname的Kerberos Principal后,Impala服务不可用,Impalad实例亚健康。 Yarn ResourceManager内存占满触发Full GC 100+s,不能及时进行主备倒换。
sum(l_extendedprice * (1 - l_discount)) as revenue, o_orderdate, o_shippriority from customer, orders, lineitem where c_mktsegment =
务。 元数据:选择“本地元数据”。 网络配置: 可用区:默认即可。 虚拟私有云:默认即可。 子网:默认即可。 安全组:默认即可。 弹性公网IP:默认即可。 节点配置: CPU架构:默认即可。MRS 3.1.0及MRS 3.1.5版本无该参数。 常用模板:当“集群类型”选择“自定义”时该参数有效,保持默认即可。
在本地Windows环境中查看Spark程序调试结果 SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/D:/mavenlocal/org/apache/l
= 'test_source', 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'testGroup', 'scan.startup.mode'
-Dmapreduce.job.hdfs-servers 如果对接了OBS,而服务端依然使用HDFS,那么需要显式在命令行使用该参数指定HDFS的地址。格式为hdfs://{NAMESERVICE}。其中{NAMESERVICE}为hdfs nameservice名称。 如果当前的HDF
准备HDFS应用开发环境 准备本地应用开发环境 准备HDFS应用开发用户 准备Eclipse与JDK 准备HDFS应用运行环境 导入并配置HDFS样例工程 父主题: HDFS开发指南
在本地Windows环境中调测Spark应用 配置Windows通过EIP访问集群Spark 在本地Windows环境中编包并运行Spark程序 在本地Windows环境中查看Spark程序调试结果 父主题: 调测Spark应用
在本地Windows环境中调测Spark应用 配置Windows通过EIP访问集群Spark 在本地Windows环境中编包并运行Spark程序 在本地Windows环境中查看Spark程序调试结果 父主题: 调测Spark应用
Hive应用开发常见问题 Hive对外接口介绍 配置Windows通过EIP访问普通模式集群Hive 使用IBM JDK产生异常“Problem performing GSS wrap”如何处理 父主题: Hive开发指南(普通模式)
PRINCIPAL, hbaseKeytab); LoginUtil.setZookeeperServerPrincipal(ZOOKEEPER_DEFAULT_SERVER_PRINCIPAL); LoginUtil.login(PRINCIPAL, KEYTAB
_BASE_x.x.x/install/FusionInsight-dbservice-2.7.0/ha/module/hacom/script/”目录,执行以下命令重启HA: ./stop_ha.sh ./start_ha.sh 执行以下命令获取HA进程的“pid”: ps -ef
Kafka应用开发常见问题 Kafka常用API介绍 配置Windows通过EIP访问集群Kafka 运行Producer.java样例报错获取元数据失败“ERROR fetching topic metadata...” 父主题: Kafka开发指南(普通模式)
"userGroups":["supergroup"],"userRoles":[],"primaryGroup":"supergroup","description":"Add user"}. basicAuth.HttpManager.sendHttpPostRequest(HttpManager
-Dmapreduce.job.hdfs-servers 如果对接了OBS,而服务端依然使用HDFS,那么需要显式在命令行使用该参数指定HDFS的地址。格式为hdfs://{NAMESERVICE}。其中{NAMESERVICE}为hdfs nameservice名称。 如果当前的HDF
-Dmapreduce.job.hdfs-servers 如果对接了OBS,而服务端依然使用HDFS,那么需要显式在命令行使用该参数指定HDFS的地址。格式为hdfs://{NAMESERVICE}。其中{NAMESERVICE}为hdfs nameservice名称。 如果当前的HDF
准备MapReduce应用开发环境 MapReduce应用开发环境简介 准备MapReduce应用开发用户 准备Eclipse与JDK 准备MapReduce应用运行环境 导入并配置MapReduce样例工程 配置MapReduce应用安全认证 父主题: MapReduce开发指南
基于开源CsvBulkloadTool,新增以下两个参数: --multiple-delimiter(-md) 用于指定自定义分隔符,当此命令参数存在时,会优先生效,覆盖掉原命令中的-d参数。 --multiple-delimiter-skip-check(-mdsc) 用于跳过分隔符长度及白名单校验,不建议使用。