检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
提供任何网络服务,重置密码插件CloudResetPwdUpdateAgent使用了Apache Log4j2组件,经华为云安全实验室分析验证,ECS重置密码插件无可利用条件,无安全风险。 如果用户需要升级该插件中的Log4j2版本,可通过下面的步骤升级插件: 将“MRS_Log4j_Patch
滚动重启实例”,重启SparkResource实例。 重新下载安装Spark服务客户端,或者更新已有客户端配置,具体参考使用MRS客户端。 验证配置结果 登录FusionInsight Manager,选择“集群 > 服务 > MemArtsCC > 图表 > 容量”。 查看图表“集群shard数量”
重启HetuEngine计算实例。 使用验证Function Plugin 登录客户端安装节点,执行安全认证。 cd /opt/client source bigdata_env kinit HetuEngine用户 hetu-cli 选择验证环境上有数值(int或double类型)列的表,此处选择hive
表“dataorigin”的“name”列有Create和select的权限,而对于其他列则没有任何的访问权限。 登录Impala客户端,验证Ranger是否已经完成集成Impala。 以客户端安装用户登录客户端安装节点,执行如下命令,初始化环境变量。 source /opt/client/bigdata_env
256 ... 登录FusionInsight Manager,选择“集群 > 服务 > LdapServer > 更多 > 重启服务”,验证当前用户身份后重启服务。 父主题: MRS集群安全加固
重启Doris服务。 登录FusionInsight Manager,选择“集群 > 服务 > Doris”。 选择“更多 > 重启服务”,验证密码后单击“确定”,等待服务启动成功后,执行3。 在Doris服务重启期间服务不可用,不能对外提供服务,且其他连接Doris运行的任务也会失败。
park.authenticate.secret。 true spark.authenticate.secret 设置Spark各组件之间验证的密钥。如果不是运行在YARN上且认证未开启,需要设置该项。 - spark.modify.acls 逗号分隔的有权限修改Spark jo
Authentication) 在HTTP中,基本认证是一种用来允许Web浏览器或其他客户端程序在请求时提供用户名和密码形式的身份凭证的一种登录验证方式。 在请求发送之前,用Basic加一个空格标识基本认证,以用户名追加一个冒号然后串接上密码,再将此字符串用Base64算法编码。 例如:
Flume业务配置指南 本章节适用于MRS 3.x及之后版本。 该操作指导用户完成Flume常用业务的配置。其他一些不太常用的Source、Channel、Sink的配置请参考Flume社区提供的用户手册(http://flume.apache.org/releases/1.9.0
park.authenticate.secret。 true spark.authenticate.secret 设置Spark各组件之间验证的密钥。如果不是运行在YARN上且认证未开启,需要设置该项。 - spark.modify.acls 逗号分隔的有权限修改Spark jo
FSNamesystem.internalReleaseLease(FSNamesystem.java:3937) 根因分析:被上传的文件损坏,因此会上传失败。 验证办法:cp或者scp被拷贝的文件,也会失败,确认文件本身已损坏。 解决办法 文件本身损坏造成的此问题,采用正常文件进行上传。 父主题: 使用HDFS
multicast.bind.address.ip</name> <value>226.1.1.3</value> </property> 验证客户端是否成功开启Multicast功能。 在HBase客户端开启读写任务,并确认读写的目标Region所在RegionServer。在读
Broker进程的cleaner运行日志。 state-change.log Broker进程的state-change运行日志。 kafkaServer-<SSH_USER>-<DATE>-<PID>-gc.log Broker进程的GC日志。 postinstall.log Broker安装后的工作日志。
用到的配置,在本地选择步骤 4获取的“hdfs-site.xml”文件。 图4 添加HBase数据源 单击“确定”创建HBase数据源。 验证数据源连接是否成功。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env
thon2”创建软链接“/usr/bin/python”。 ln -s /usr/bin/python2 /usr/bin/python 验证Impala客户端是否可用。 父主题: 使用Impala
系统,返回文件列表即表示访问OBS成功,如图1所示: hadoop fs -ls obs://mrs-word001/ 图1 Hadoop验证返回文件列表 使用以下命令上传客户端节点“/opt/test.txt”文件到OBS文件系统路径下。 hdfs dfs -put /opt/test
参数值 spark.jars Jar包路径,例如:hdfs://hacluster/tmp/spark/JAR/spark-test.jar 验证jar包已经被加载,执行结果无“ClassNotFoundException”报错,则表示正常。 父主题: Spark Core企业级能力增强
<port>2181</port> </node> </zookeeper> ... 集群配置完成后,具体后续怎么使用可以参考ClickHouse表创建章节描述。 父主题: ClickHouse集群管理
访问Kylin原生页面http://<hostname>:7070/kylin并运行样例Cube脚本${KYLIN_HOME}/bin/sample.sh验证kylin是否正常运行。 在华为云严选商城中有提供基于Apache Kylin的企业级大数据智能分析平台Kyligence Enterprise,您可以根据需要选择使用。
MRS 2.x及之前版本:单击“服务管理”。 选择“更多 > 同步配置”。 根据集群版本进行相关操作。 MRS 2.x及之前版本:进行身份验证,并勾选“重启配置过期的服务或实例。”,单击“确定”,开始为当前集群同步配置。操作结束。 MRS 3.x及之后版本:单击“确定”,等待同步完成后执行4重启配置过期的实例。