检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
运行前置操作 安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytab和krb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代
properties”中使用环境变量。 本章节适用于MRS 3.x及之后版本。 安装Flume客户端。 以root用户登录安装Flume客户端所在节点。 切换到以下目录。 cd Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/conf 在该目录下的“flume-env
> 全部配置”,搜索“lb_http_port”并获取其参数值,默认为21425。 loadBalancerHttpsPort 21426 LoadBalance的HTTPS端口,若sslUsed配置为true,则此参数不允许为空。 登录FusionInsight Manager,选择“集群
> 全部配置”,搜索“lb_http_port”并获取其参数值,默认为21425。 loadBalancerHttpsPort 21426 LoadBalance的HTTPS端口,若sslUsed配置为true,则此参数不允许为空。 登录FusionInsight Manager,选择“集群
1/install/FusionInsight-Sqoop-1.99.3/FusionInsight-Sqoop-1.99.3/server/webapps/loader/WEB-INF/ext-lib”。 此处版本号8.1.0.1为示例,具体以实际环境的版本号为准。 使用root用户在Lo
创建租户时,租户可以关联的服务资源包含HBase、ClickHouse和Doris。为已有的租户关联服务时,可以关联的服务资源包含:HDFS、HBase、Yarn、ClickHouse和Doris。 若为已有的租户关联服务资源:在租户列表单击目标租户,切换到“服务关联”页签,单击“关联服务”单独配置当前租户关联资源。
中。 enableIndices ():启用指定的索引(索引状态将从INACTIVE变为ACTIVE状态),因此可用于扫描索引。 public void enableIndicesExample() { LOG.info("Entering Enabling a Hindex
类的dropIndicesExample方法中。 dropIndices():从指定的表中删除指定的索引,但索引数据不会被删除。 public void dropIndicesExample() { LOG.info("Entering Deleting a Hindex
----+--+ | ID | Status | Load Start Time | Load Time Taken | Partition | Data Size | Index Size | File Format | +------+
的节点上使用客户端,请在该客户端的flink配置文件flink-conf.yaml的配置项“jobmanager.web.allow-access-address”中添加该客户端所在节点的IP。若集群未开启Kerberos认证则无需修改该配置项。 配置客户端网络连接。 当客户端所
比如,当前集群2个分片,分片1下面有两个节点A和B,分片2下面有两个节点C和D。创建复制表test的时候没有携带ON CLUSTER关键字,只在节点A和B上创建了该表。 当前如果要退服分片1下面的A和B节点时,则不允许退服,需要在分片2的C和D节点上同时创建复制表test后才能正常退服。
DataNode数据目录与系统关键目录(“/”或“/boot”)使用同一磁盘。 DataNode数据目录中多个目录使用同一磁盘。 处理步骤 查看告警原因和产生告警的DataNode节点信息。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中单击此告警。
logInfo(Logging.scala:59) 2016-04-20 10:42:00,811 | ERROR | [Yarn application state monitor] | Yarn application has already exited with state FINISHED! | org
${BIGDATA_HOME}/FusionInsight_Spark2x_xxx/install/FusionInsight-Spark2x-*/spark/sbin/fake_prestart.sh 将“eval "${hdfsCmd}" -chmod 600 "${InnerHdfsDir}"/ssl.jceks
3对接时存在Jetty兼容性问题如何处理? MRS导出数据到OBS加密桶失败如何处理? MRS服务如何对接云日志服务? MRS集群的节点如何安装主机安全服务? 如何通过happybase连接到MRS服务的HBase? Hive Driver是否支持对接dbcp2?
Yarn客户端的端口信息错误导致提交任务后报错connection refused 通过Yarn WebUI查看作业日志时提示“Could not access logs page!” 通过Yarn WebUI查看队列信息时提示“ERROR 500”错误 通过Yarn WebUI页面查看作业日志提示“ERROR
kafka.common.utils.AppInfoParser) [2017-03-07 10:19:18,478] INFO Kafka commitId : unknown (org.apache.kafka.common.utils.AppInfoParser) Consum
abric 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSFabric_IP:HSFabric_Port是HSFabric的URL,多个URL以逗号隔开。例如:“192.168
创建一个新的Flink用户,提交任务,ZooKeeper目录无权限导致提交Flink任务失败,日志中报如下错误: NoAuth for /flink/application_1499222480199_0013 回答 由于在Flink配置文件中“high-availability.zookeeper
examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut."); String URL