检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在弹出窗口中输入当前登录的用户密码确认身份,然后单击“确定”。 在确认重启实例的对话框中单击“确定”。 支持单击“查看实例”打开所有配置已过期的实例列表,确认可以执行重启任务。 父主题: 管理MRS集群
W DATABASES、REPLICATION SLAVE、REPLICATION CLIENT。 可执行以下命令进行赋权,命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。 GRANT SELECT, RELOAD,
创建并购买一个包含有Spark2x、Kafka组件的MRS集群,详情请参见购买自定义集群。 本文以购买的MRS 3.1.0版本的集群为例,集群未开启Kerberos认证。 集群购买成功后,在MRS集群的任一节点内,安装集群客户端,具体操作可参考安装并使用集群客户端。 例如客户端安装目录为“/opt/client”。
或手动备份数据。 加密目录不支持备份恢复。 前提条件 如果数据要备份至远端HDFS中,需满足以下条件: 需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信
e的备份任务。如果下次执行全量则备份正常。 前提条件 如果数据要备份至远端HDFS中,需满足以下条件: 需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信
MRS集群运行模式。 约束限制: 不涉及 取值范围: SIMPLE:普通集群,表示Kerberos认证关闭,用户可使用集群提供的所有功能。 KERBEROS:安全集群,表示Kerberos认证开启,普通用户无权限使用MRS集群的“文件管理”和“作业管理”功能,并且无法查看Hadoop、
进入Kafka配置页面,参数类别选择全部配置,显示所有Kafka相关配置,在“搜索”中输入message.max.bytes进行检索。 MRS中Kafka服务端默认可以接收的消息最大为1000012 bytes =977 KB。 解决办法 与用户确认,当前Flume发送数据确实存在超过1M的消息。因此,
例如,Hive客户端安装目录为“/opt/hiveclient”,执行source /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新用户的管理员权限。 set role admin;
目录做备份后,Hive表将无法被删除重建。 前提条件 如果数据要备份至远端HDFS中,需满足以下条件: 需要准备一个用于备份数据的备集群,认证模式需要与主集群相同。 如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信
解决Flink上传UDF后UI分页显示异常的问题。 解决Flink流读Hudi数据时间显示会少8小时的问题。 解决使用FlinkServer创建SASL_SSL认证的kafka连接,执行报错的问题。 解决Flink对接Guardian启用OBS,Flink作业重启偶现重启失败的问题。 解决DataArts
k-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed Dat
进入Linux客户端目录,运行如下命令导入公共环境变量。 cd /opt/client source bigdata_env 在该目录下用hdfs用户进行命令行认证。 kinit hdfs kinit一次票据时效24小时。24小时后再次运行样例,需要重新执行kinit命令。 进入“/opt/clien
3000 120000 否 max_server_memory_usage_to_ram_ratio ClickHosueServer默认可使用的系统最大内存比例,小数表示,如0.9表示系统内存的90%。配置不合理可能出现节点OOM导致业务受损。 0.8 4u16G:0.6 8u32G:0
taskmanager.network.netty.sendReceiveBufferSize: 0 # netty的传输方式,默认方式会根据运行的平台选择合适的方式 taskmanager.network.netty.transport:auto 内存总体调优 Flink内部对内存进行了
例如,Hive客户端安装目录为“/opt/hiveclient”,执行source /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新用户的管理员权限。 set role admin;
例如,Spark2x客户端安装目录为“/opt/client”,执行source /opt/client/bigdata_env 执行以下命令认证用户。 kinit Spark2x业务用户 执行以下命令登录客户端工具。 spark-beeline 执行以下命令更新用户的管理员权限。 set
例如,Spark2x客户端安装目录为“/opt/client”,执行source /opt/client/bigdata_env 执行以下命令认证用户。 kinit Spark2x业务用户 执行以下命令登录客户端工具。 spark-beeline 执行以下命令更新用户的管理员权限。 set
据,且历史数据需要同步到备集群? 是,存在表且需要同步数据,以HBase表用户登录安装主集群HBase客户端的节点,并执行kinit用户名认证身份。该用户需要拥有表的读写权限,以及“hbase:meta”表的执行权限。然后执行19。 否,不需要同步数据,任务结束。 配置HBase
当集群中某个节点的标签数量达到上限时,集群将不能再添加标签。 启用默认标签会为集群和每个节点添加默认标签,并自动占用2个标签配额(即系统默认可以添加20个标签,此时还可以添加18个标签)。 如您的组织已经设定MapReduce服务的相关标签策略,则需按照标签策略规则为集群/节点添
partitionpath.field分区字段保持一致。 hoodie.datasource.write.keygenerator.class 默认可以配置为org.apache.hudi.keygen.SimpleKeyGenerator 和org.apache.hudi.keygen