检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
或资源包产生的云成本,或无法直接通过企业项目、成本标签分配的云成本。这些成本不能直接归属于单一所有者,因此不能直接归属到某一类别。使用拆分规则,可以在各团队或业务部门之间公平地分配这些成本。详细介绍请参见使用成本单元查看成本分配。 成本分析 企业只有了解组织中哪些方面产生了成本,
ume时可设置。 HBase的RegionServer滚动重启的并发数不支持手动配置,会根据RegionServer的节点数自行调整,调整规则为:30节点以内,每个批次1个节点;300节点以内,每个批次2个节点;300节点以上(含300节点),每个批次1%(向下取整)个节点。 “批次时间间隔”
n数量的权限。 Alter Configs:修改配置权限。 Select/Deselect All:全选/取消全选。 如需添加多条权限控制规则,可单击按钮添加。 如需当前条件中的用户或用户组管理本条策略,可勾选“Delegate Admin”,这些用户将成为受委托的管理员。被委托
请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 NameNode JVM参数配置规则 NameNode JVM参数“GC_OPTS”默认值为: -Xms2G -Xmx4G -XX:NewSize=128M -XX:MaxNewSize=256M
Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”,找到“主NameNode RPC处理平均时间”,单击default规则中“操作”栏中的“修改”,修改“阈值”为告警出现前后1天内监控值的峰值的150%。单击“确定”,保存新阈值。 图2 修改阈值 等待5分钟,查看该告警是否自动消除。
FlinkSQL Kafka和upsert-kafka Connector支持限流读 本章节适用于MRS 3.3.0及以后版本。 使用场景 使用FlinkSQL的Kafka、upsert-kafka Connector消费数据时需要限流。 使用方法 在创建的Source流表中添加“subtask
下载客户端文件到远端主机成功。 若界面显示以下提示信息,请检查用户名密码及远端主机的安全组配置,确保用户名密码正确,及远端主机的安全组已增加SSH(22)端口的入方向规则。然后从3执行重新下载客户端。 连接到服务器失败,请检查网络连接或参数设置。 图1 下载客户端 选择“Flume”服务,单击“实例”,查看
HBase基本原理 数据存储使用HBase来承接,HBase是一个开源的、面向列(Column-Oriented)、适合存储海量非结构化数据或半结构化数据的、具备高可靠性、高性能、可灵活扩展伸缩的、支持实时数据读写的分布式存储系统。更多关于HBase的信息,请参见:https://hbase
配置ZooKeeper ZNode ACL 操作场景 该操作指导用户对ZooKeeper的znode设置权限。 ZooKeeper通过访问控制列表(ACL)来对znode进行访问控制。ZooKeeper客户端为znode指定ACL,ZooKeeper服务器根据ACL列表判定某个请
配置ZooKeeper ZNode ACL 操作场景 该操作指导用户对ZooKeeper的znode设置权限。 ZooKeeper通过访问控制列表(ACL)来对znode进行访问控制。ZooKeeper客户端为znode指定ACL,ZooKeeper服务器根据ACL列表判定某个请
Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HBase > 单个RegionServer的Region数目”,选中目前应用的规则,单击“修改”查看目前的阈值设置是否合理。 如果过小,则根据集群实际情况,增大阈值,执行17。 如果阈值设置合理,则执行18。 图2 单个
"hdfsMove- SUCCESS!, File moved, src : %s, des : %s \n", destfile , mvfile); 重命名文件。 const char* renamefile = "/tmp/nativeTest/testfile3.txt"; if (hdfsRename(fs
管理TTL策略 命令功能 开启TTL后,使用此命令添加/更新/删除/清空TTL策略。 命令格式 添加TTL策略: call ttl_policy_save(table => "[table]", path => "[path]", spec => "[spec]", level =>
FlinkSQL Kafka Connector支持消费drs-json格式数据 本章节适用于MRS 3.3.0及以后版本。 使用场景 FlinkSQL需要消费Kafka中drs-json格式(一种CDC消息格式)的数据。 使用方法 在创建的Kafka Connector Source流表中,设置
"hdfsMove- SUCCESS!, File moved, src : %s, des : %s \n", destfile , mvfile); 重命名文件。 const char* renamefile = "/tmp/nativeTest/testfile3.txt"; if (hdfsRename(fs
"hdfsMove- SUCCESS!, File moved, src : %s, des : %s \n", destfile , mvfile); 重命名文件。 const char* renamefile = "/tmp/nativeTest/testfile3.txt"; if (hdfsRename(fs
21154 单击“导出”按钮,下载“properties.properties”文件到本地。 将“properties.properties”文件重命名为“client.properties.properties”,然后将该文件上传并覆盖到Flume客户端节点的“集群客户端安装包解压路径/
"hdfsMove- SUCCESS!, File moved, src : %s, des : %s \n", destfile , mvfile); 重命名文件。 const char* renamefile = "/tmp/nativeTest/testfile3.txt"; if (hdfsRename(fs
-append 将数据追加到hdfs中已经存在的dataset中。使用该参数,sqoop将把数据先导入到一个临时目录中,然后重新给文件命名到一个正式的目录中,以避免和该目录中已存在的文件重名。 -as-avrodatafile 将数据导入到一个Avro数据文件中。 -as-sequencefile
MRS各组件样例工程汇总 样例工程获取地址参见获取MRS应用开发样例工程,切换分支为与MRS集群相匹配的版本分支,然后下载压缩包到本地后解压,即可获取各组件对应的样例代码工程。 MRS样例代码库提供了各组件的基本功能样例工程供用户使用,当前版本各组件提供的样例工程汇总参见表1。 表1