检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
more (kafka.admin.TopicCommand$) 可能原因 Kafka服务处于停止状态。 客户端命令中ZooKeeper地址参数配置错误。 原因分析 使用客户端命令,打印NoNodeException异常。 Error while executing topic
access_key_id, secret_access_key] [,format] [,structure]) path:带有文件路径的Bucket URL地址。 format:文件的格式。 access_key_id, secret_access_key:账号的长期凭证,可以使用凭证来对请求进行
导入jdbc-example样例工程之后,运行时需修改以下参数: 将代码中HOST = "xxx"的“xxx”修改为Doris的Master FE节点IP地址,Master FE节点可通过在Manager界面,选择“集群 > 服务 > Doris”,查看“Leader所在的主机”获取。 将代码中PORT
配置连接ZooKeeper节点的IP地址和端口,参数值格式为“IP1:port,IP2:port,IP3:port”,以此类推。默认端口号为“2181”。 sqoop.server.list 配置连接Loader的浮动IP和端口,参数值格式为“floatip:port”。默认端口号为“21351”。
// set the user's principal try { conf.set("username.client.kerberos.principal", principal); User
exImportTsv继承了HBase批量加载数据工具ImportTsv的所有功能。此外,如果在执行HIndexImportTsv工具之前未建表,直接运行该工具,将会在创建表时创建索引,并在生成用户数据的同时生成索引数据。 前提条件 已安装客户端,具体请参考安装客户端章节。 已根
conf”所在路径。 conf.path HBase配置文件所在目录。 zookeeper.server.principal 为ZooKeeper服务端Principal,格式为“zookeeper/hadoop.系统域名”, 其中系统域名的值可通过登录Manager界面,选择“系统
单击“集群管理页面”后的“前往 Manager”,在弹出的窗口中选择“EIP访问”并配置弹性IP信息。 首次访问时,可点击“管理弹性公网IP”,在弹性公网IP控制台购买一个弹性公网IP,购买成功后刷新弹性公网IP列表并选择。 勾选确认信息后,单击“确定”,登录集群的FusionInsight
图1 选择Remote 选择对应要调试的源码模块路径,并配置远端调试参数Host和Port,如图2所示。 其中Host为Spark运行机器IP地址,Port为调试的端口号(确保该端口在运行机器上没被占用)。 图2 配置参数 当改变Port端口号时,For JDK1.4.x对应的调试
zookeeper.sasl.clientconfig=Client_new[1] # Principal of fi zookeeper server side. zookeeper.server.principal=zookeeper/hadoop.hadoop.com[2] # Set true
提交MapReduce应用程序运行前,在MapReduce客户端执行如下命令获得认证。 kinit 组件业务用户 代码认证: 通过获取客户端的principal和keytab文件在应用程序中进行认证。 MapReduce的安全认证代码 目前使用统一调用LoginUtil类进行安全认证。 在MapReduce样例工程的“com
LoginUtil.setZookeeperServerPrincipal("zookeeper/hadoop.<系统域名>"); LoginUtil.setJaasFile(USER_PRINCIPAL, userKeyTableFile); } 用户可登录FusionInsight
LoginUtil.setZookeeperServerPrincipal("zookeeper/hadoop.<系统域名>"); LoginUtil.setJaasFile(USER_PRINCIPAL, userKeyTableFile); } 用户可登录FusionInsight
导入jdbc-example样例工程之后,运行时需修改以下参数: 将代码中HOST = "xxx"的“xxx”修改为Doris的Master FE节点IP地址,Master FE节点可通过在Manager界面,选择“集群 > 服务 > Doris”,查看“Leader所在的主机”获取。 将代码中PORT
dexImportTsv继承了HBase批量加载数据工具ImportTsv的所有功能。此外,若在执行HIndexImportTsv工具之前未建表,直接运行该工具,将会在创建表时创建索引,并在生成用户数据的同时生成索引数据。 前提条件 已安装客户端,具体请参考安装客户端章节。 已根
该样例代码只存在于mrs-sample-project-1.6.0.zip中 // 参数解析: //<groupId> 消费者的group.id. //<brokers> broker的IP和端口. //<topic> kafka的topic. public
在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看“告警ID”为“50212”的“定位信息”中的角色名并确定实例的IP地址。 选择“集群 > 服务 > Doris > 实例”,单击告警上报的FE,进入实例“图表”页面。 左侧图表分类选择“JVM”,查看FE进
keyTab="/opt/test/conf/user.keytab" principal="flume_hdfs@<系统域名>" useTicketCache=false storeKey=true debug=true; }; 参数keyTab和principal根据实际情况修改。 问题:执行Flume客户端连接HBase报如下错误:
hive_sync_test3 --partition-value-extractor org.apache.hudi.hive.MultiPartKeysValueExtractor --support-timestamp 表1 参数说明 命令 描述 必填 默认值 --database
keyTab="/opt/test/conf/user.keytab" principal="flume_hdfs@<系统域名>" useTicketCache=false storeKey=true debug=true; }; 参数keyTab和principal根据实际情况修改。 从/opt/FusionI