检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
FS时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添加支持。若不支持,可对应修改集群中SSL协议。例如,若Curl仅支持TLSv1协议,修改方法如下: 登录FusionInsight Manager页面,选择“集群 > 待操作集群的名称 > 服务 >
将样例工程中“conf”的配置文件及认证文件上传到Linux中“conf”目录。 在“/opt/test”根目录新建脚本“run.sh”,修改内容如下并保存: #!/bin/sh BASEDIR=`cd $(dirname $0);pwd` cd ${BASEDIR} for file
conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。
集群缩容过程说明如下: 缩容中:集群正在缩容时集群状态为“缩容中”。已提交的作业会继续执行,也可以提交新的作业,但不允许继续缩容和删除集群,也不建议重启集群和修改集群配置。 缩容成功:集群缩容成功后集群状态为“运行中”,计费按照缩容后所使用的资源计算。 缩容失败:集群缩容失败时集群状态为“运行中”。
r页面,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置 > ClickHouseServer(角色) > 引擎”,修改如下参数: 参数 参数说明 kafka.sasl_kerberos_principal 连接Kafka的principal,输入1创建的用户名。
useTicketCache=false storeKey=true debug=true; }; 文件内容中的test@<系统域名>为示例,实际操作时请做相应修改。 在Linux环境中添加样例工程运行所需的classpath,例如: export YARN_USER_CLASSPATH=/opt/c
conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。
local/cert”目录保存申请的证书文件与密钥文件。 若获取的证书文件格式不是“.crt”,密钥文件格式不是“.pem”,执行以下命令修改: mv 证书名称.证书格式 root-ca.crt mv 密钥名称.密钥格式 root-ca.pem 例如,将证书文件命名为“root-ca
omm切换为omm用户,根据集群版本编辑对应文件,并适当增大“nodeagent.Xms”初始堆内存参数值和“nodeagent.Xmx”最大堆内存参数值大小,保存修改。 参数所在文件路径如下: MRS 3.2.1之前版本:/opt/Bigdata/om-agent/nodeagent/bin/nodeagent_ctl
HBase > 配置 > 全部配置”,搜索并修改ThriftServer实例的配置参数“hbase.thrift.security.qop”。该参数值需与“hbase.rpc.protection”的值一一对应。保存配置,重启配置过期节点服务使更改的配置生效。 “hbase.rpc.protection”与“hbase
工程代码中,需配置相关认证信息。 在“com.huawei.bigdata.hive.examples”包的“JDBCExample”类中修改“USER_NAME”为实际用户名,例如“developuser”。 KRB5_FILE = userdir + "krb5.conf";
exec-XXX.jar LIB_JARS和HADOOP_CLASSPATH中指定的jar包的版本号“XXX”需要根据实际环境的版本号进行修改。 使用Yarn客户端提交任务。 yarn --config $HADOOP_HOME/etc/hadoop jar $HCAT_CLIE
b”目录。将样例工程中“conf”的配置文件上传到Linux中“conf”目录。 在“/opt/test”根目录新建脚本“run.sh”,修改内容如下并保存: #!/bin/sh BASEDIR=`cd $(dirname $0);pwd` cd ${BASEDIR} for file
打开“C:\Windows\System32\drivers\etc\hosts”。 解决方法参考4。 解决办法 ZooKeeper连接地址配置错误。 修改Consumer配置中的ZooKeeper连接地址信息,保证和MRS相一致。 Flume server.sources.Source02.type=org
bigdata_env 运行此样例代码需要设置运行用户,设置运行用户有两种方式,添加环境变量HADOOP_USER_NAME或者修改代码设置运行用户。若在没有修改代码的场景下,执行以下语句添加环境变量: export HADOOP_USER_NAME=test 用户可向管理员咨询运行用
FS时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添加支持。若不支持,可对应修改集群中SSL协议。例如,若Curl仅支持TLSv1协议,修改方法如下。 登录MRS Manager页面,单击“服务管理 > HDFS > 服务配置”,在“参数类别”选择
f”文件夹复制到ClickHouse客户端安装目录下,例如“客户端安装目录/JDBC”目录下。 登录客户端节点,进入jar文件上传目录下,修改文件权限为700。 cd /opt/client chmod 700 clickhouse-examples.jar 在“clickhouse_examples
f”文件夹复制到ClickHouse客户端安装目录下,例如“客户端安装目录/JDBC”目录下。 登录客户端节点,进入jar文件上传目录下,修改文件权限为700。 cd /opt/client chmod 700 clickhouse-examples.jar 在“clickhouse_examples
f”文件夹复制到ClickHouse客户端安装目录下,例如“客户端安装目录/JDBC”目录下。 登录客户端节点,进入jar文件上传目录下,修改文件权限为700。 cd /opt/Bigdata/client chmod 700 clickhouse-examples.jar 在“clickhouse_examples
Manager系统,选择“集群 > 服务 > Kafka > 配置 > 全部配置”,搜索“allow.everyone.if.no.acl.found”配置,修改参数值为true,保存配置即可。 系统域名:可登录FusionInsight Manager,选择“系统 > 权限 > 域和互信”,查看“本端域”参数,即为当前系统域名。