检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
File”页面,选择对应版本的Scala插件包,单击“OK”。 图10 choose plugin File 在“Plugins”页面,单击“Apply”安装Scala插件。 在弹出的“Platform and Plugin Updates”页面,单击“Restart”,使配置生效。 图11
1/install/FusionInsight-Sqoop-1.99.3/FusionInsight-Sqoop-1.99.3/server/webapps/loader/WEB-INF/ext-lib”。 使用root用户在主备节点分别执行以下命令修改权限: cd ${BIGDATA_HO
all/FusionInsight-Sqoop-1.99.3/FusionInsight-Sqoop-1.99.3/server/webapps/loader/WEB-INF/ext-lib”。 使用root用户在主备节点分别执行以下命令修改权限: cd ${BIGDATA_HO
1/hadoop-yarn/hadoop-yarn-site/NodeManagerCgroups.html MRS 3.2.0及之后版本:https://hadoop.apache.org/docs/r3.3.1/hadoop-yarn/hadoop-yarn-site/NodeManagerCgroups
文本数据的行分隔符。 Hive开源增强特性:支持基于HTTPS/HTTP协议的REST接口切换 WebHCat为Hive提供了对外可用的REST接口,开源社区版本默认使用HTTP协议。 MRS Hive支持使用更安全的HTTPS协议,并且可以在两种协议间自由切换。 Hive开源增强特性:支持开启Transform功能
在左边导航上选择“General > Workspace”,在“Text file encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图1所示。 图1 设置Eclipse的编码格式 修改样例(未开启Kerberos认证集群可跳过此步骤)。 在4获取新建开发用户的krb5
配置远程调试信息,“右键->Debug As->Debug Configurations...”。 在弹出的页面,双击“Remote Java Application”,设置Connection Properties,其中Host为运行的NodeManager节点IP,Port端口号为8000,然后单击“Debug”。
config=#{conf_dir}/jaas.conf -Djava.security.krb5.conf=${KRB5_CONFIG} -Dbeetle.application.home.path=${BIGDATA_HOME}/common/runtime/security/config -Djna
csv' INTO TABLE table_name OPTIONS ('...'); 相对路径举例: LOAD DATA INPATH '/apps/input_data1.txt' INTO TABLE table_name; 父主题: CarbonData常见问题
ibm.jsse2.overrideDefaultTLS”为“true”,设置后可以同时支持TLS1.0/1.1/1.2。 详情请参见https://www.ibm.com/support/knowledgecenter/zh/SSYKE2_8.0.0/com.ibm.java.security
访问服务的可控制,在开源社区的Hive-3.1.0版本基础上,Hive新增如下特性: 数据文件加密机制:开源社区的Hive特性,请参见https://cwiki.apache.org/confluence/display/hive/designdocs。 父主题: Hive应用开发概述
保存文件后,重新访问MRS HDFS。 方法二: 从Maven库下载MRS集群版本对应的hadoop-plugins版本。 下载路径:https://repo.huaweicloud.com/repository/maven/huaweicloudsdk/com/huawei/mrs/hadoop-plugins/
FSNamesystem=DEBUG log4j.logger.org.apache.hadoop.hbase=INFO # Make these two classes DEBUG-level. Make them DEBUG to see more zk debug. log4j.logger.org
UDF实现类。 package com.xxxbigdata..hetuengine.functions; public class AddTwo { public Integer evaluate(Integer num) { return num + 2;
使用Flume服务端从本地采集静态日志保存到Kafka 操作场景 该任务指导用户使用Flume服务端从本地采集静态日志保存到Kafka的Topic列表(test1)。 本章节适用于MRS 3.x及之后版本。 本配置默认集群网络环境是安全的,数据传输过程不需要启用SSL认证。如需使
使用Flume服务端从本地采集静态日志保存到Kafka 该任务指导用户使用Flume服务端从本地采集静态日志保存到Kafka的Topic列表(test1)。 本配置默认集群网络环境是安全的,数据传输过程不需要启用SSL认证。如需使用加密方式,请参考配置Flume加密传输数据采集任
1/hadoop-yarn/hadoop-yarn-site/NodeManagerCgroups.html MRS 3.2.0及之后版本:https://hadoop.apache.org/docs/r3.3.1/hadoop-yarn/hadoop-yarn-site/NodeManagerCgroups
er角色提供功能和能力,TokenServer支持多实例部署,每个实例都可以提供相同的功能,单点故障不影响服务功能,且对外提供RPC和HTTPS接口获取访问OBS的临时认证凭据。 Guardian架构 Guardian的基本架构如图 Guardian架构所示。 图1 Guardian架构
# of consumers) 勾选 - Display Broker and Topic Size (only works after applying this patch) 勾选 - Security Protocol PLAINTEXT 开启Kerberos的Kafka集群选择SASL_PLAINTEXT
在左边导航上选择“General > Workspace”,在“Text file encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图2所示。 图2 设置Eclipse的编码格式 修改样例(未开启Kerberos认证集群可跳过此步骤)。 在5获取新建开发用户的krb5