检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击对应的用户组名称。在“用户”中勾选需要同步的IAM用户,单击“同步”。 如需同步所有的用户,在“待同步”中勾选“全部同步”即可。 如只勾选“用户组”,该用户组下的用户不会同步,必须勾选“用户组”下对应的用户名称才能同步。 在“IAM用户同步”页面会显示所有的用户组,所有灰色
导入并配置Flink样例工程 操作场景 Flink针对多个场景提供样例工程,包含Java样例工程和Scala样例工程等,帮助客户快速学习Flink工程。 针对Java和Scala不同语言的工程,其导入方式相同。 以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程
BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create
BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create
BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create
BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create
导入并配置Flink样例工程 操作场景 Flink针对多个场景提供样例工程,包含Java样例工程和Scala样例工程等,帮助客户快速学习Flink工程。 针对Java和Scala不同语言的工程,其导入方式相同。 以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程
MRS 3.2.0及之后版本:“服务”选择“ClickHouse”。 “关联类型”:当“服务”选择“ClickHouse”时,关联类型只支持“共享”。MRS 3.3.0及之后版本支持“独占”和“共享”。 “关联逻辑集群”:若ClickHouse没有开启逻辑集群,则默认关联de
arn的磁盘配额的最大百分比。当日志目录占用空间超过此设定值时,将触发周期性日志收集服务启动一次周期外的日志收集活动,以释放本地磁盘空间。每个磁盘上可提供给Container logs的最大可使用率。当Container logs使用超过这个限制,会触发滚动汇聚。 对于MRS 3
当前正在运行应用的数量。如果是中间队列/父队列,这是所有子队列的集合。 number_pending_request int 挂起命令的数量;每个未完成命令的总计数。如果是中间队列/父队列,这是所有子队列的集合。 number_running_container int 正在运行co
当前正在运行应用的数量。如果是中间队列/父队列,这是所有子队列的集合。 number_pending_request int 挂起命令的数量;每个未完成命令的总计数。如果是中间队列/父队列,这是所有子队列的集合。 number_running_container int 正在运行co
当前正在运行应用的数量。如果是中间队列/父队列,这是所有子队列的集合。 number_pending_request int 挂起命令的数量;每个未完成命令的总计数。如果是中间队列/父队列,这是所有子队列的集合。 number_running_container int 正在运行co
当前正在运行应用的数量。如果是中间队列/父队列,这是所有子队列的集合。 number_pending_request int 挂起命令的数量;每个未完成命令的总计数。如果是中间队列/父队列,这是所有子队列的集合。 number_running_container int 正在运行co
HetuEngine日志介绍 日志描述 日志存储路径: HetuEngine的日志保存路径为“/var/log/Bigdata/hetuengine/”和“/var/log/Bigdata/audit/hetuengine/”。 日志归档规则: 日志归档规则采用FixedWind
key password: Please Confirm password: 在登录节点生成的“password.property”文件只适用于当前节点所属的集群,不能用于其他集群,且该文件包含安全信息,请妥善保存并控制访问权限。 主备容灾场景下,genPwFile.sh脚本需
ARN的磁盘配额的最大百分比。当日志目录占用空间超过此设定值时,将触发周期性日志收集服务启动一次周期外的日志收集活动,以释放本地磁盘空间。每个磁盘上可提供给Container logs的最大可使用率。当Container logs使用超过这个限制,会触发滚动汇聚。 磁盘配额最大百
不涉及 默认取值: 不涉及 active_master Boolean 参数解释: 引导操作脚本是否只运行在主Master节点上。 约束限制: 不涉及 取值范围: true:引导操作脚本只运行在主Master节点上。 false:引导操作脚本可运行在所有Master节点上。 默认取值:
datanode.max.locked.memory 配置DataNode用做HDFS缓存的最大内存。 FLUME_HEAPSIZE 配置每个flume实例能使用的最大JVM内存。 IMPALAD_MEM_LIMIT 配置impalad实例可使用的最大内存。 添加自定义资源配置组。
vcores 50,memory 500 vcores 100,memory 1000 queue -list -name root.Q1只输出root.Q1。 > superior queue -list -name root.Q1 NAME STATE
vcores 50,memory 500 vcores 100,memory 1000 queue -list -name root.Q1只输出root.Q1。 > superior queue -list -name root.Q1 NAME STATE