检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果设置为true,为分区表 location 表的存储路径 outputFormat 输出格式 columns 列名,类型,备注 owner 所有者 partitionColumns 分区的列 inputFormat 输入格式 totalNumberFiles 分区下文件个数 totalFileSize
修改omm和ommdba用户需要获取root用户密码。 修改MRS集群节点操作系统用户密码 以root登录待修改密码节点。 执行以下命令切换用户。 sudo su - root 执行如下命令,修改omm/ommdba/root用户密码。 passwd omm passwd ommdba
理账户被锁定。用户被锁定之后,5分钟后会自动解锁。 该操作仅适用于MRS 3.x及之后版本。 以omm用户登录主管理节点。 执行以下命令,切换到目录: cd ${BIGDATA_HOME}/om-server/om/ldapserver/ldapserver/local/script
RowCounter等命令,执行结果请在日志文件“HBase客户端安装目录/HBase/hbase/logs/hbase.log”中查看。 切换到HBase客户端安装目录,执行以下命令使配置生效。 cd HBase客户端安装目录 source HBase/component_env
sight Manager界面,选择“集群 > 服务 > Hive > 实例”查看。 登录WebHCat实例所在节的任一节点,执行以下命令切换到omm用户。 su - omm 执行以下命令查看是否存在WebHCat进程。 ps -ef|grep webhcat|grep -v grep
统盘空间不足导致,请联系技术服务。 将历史备份数据移到数据盘的新目录中。 以root用户登录Master节点。 执行su - omm命令,切换到omm用户。 执行rm -rf /srv/BigData/LocalBackup命令,删除备份目录软连接。 执行mkdir -p /sr
DELETE RECORDS from CARBON TABLE 命令功能 DELETE RECORDS命令从CarbonData表中删除记录。 命令格式 DELETE FROM CARBON_TABLE [WHERE expression]; 参数描述 表1 DELETE RECORDS参数
Driver内存大小,单位默认为GB。 1GB Executor Memory 每个Executor进程的内存 ,和JVM内存串拥有相同的格式,单位默认为GB。 1GB Executor Cores 每个Executor所占用的CPU核的数目。 1 Number Executors
合理地设计表结构、行键、列名能充分利用HBase的优势。全局二级索引应用于scan条件查询场景,查询均由索引表完成,无需关注用户表rowkey。在本样例中,用户表rowkey格式为:"r1","r2","r3"...,所有列都存储在info列族中。 样例功能说明 样例重点介绍全局二级索引的创建、状态修改、删除、以及基于二级索引查询的实现。
ID获取。 已获取集群ID,即创建集群成功后返回结果中的“cluster_id” 或参考获取集群ID获取。 操作步骤 接口相关信息 URI格式:DELETE /v1.1/{project_id}/clusters/{cluster_id} 详情请参见删除集群。 请求示例 DELETE:
HColumnDescriptor("info"), "age", ValueType.String); 相关操作 使用命令创建索引表。 您还可以通过TableIndexer工具在已有用户表中创建索引。 <table_name>用户表必须存在。 hbase org.apache.hadoop.hbase.hindex
HColumnDescriptor("info"), "age", ValueType.String); 相关操作 使用命令创建索引表。 您还可以通过TableIndexer工具在已有用户表中创建索引。 <table_name>用户表必须存在。 hbase org.apache.hadoop.hbase.hindex
解决MRS对接DCS做缓存,缓存键一天多次被清空问题 解决CBG访问OBS概率性无权限问题 解决长时间使用客户端出现死锁问题 解决Yarn运行偶现RM主备切换问题 解决Spark SQL外表动态分区执行insert overwrite报错问题 解决周期清理任务清理.hive-staging时,查询数据库失败问题
union(env.readTextFile(filePaths[i])); } } // 数据转换,构造整个数据处理的逻辑,计算并得出结果打印出来 unionStream.map(new MapFunction<String
ce /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新Hive用户的管理员权限。 set role admin; 设置在默认数据库中,查询其他用户表的权限 在“权限”的表格中选择“Hive
dfs-site.xml”文件。 hdfs-site.xml (可选)自定义配置。 单击“确定”。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户
0及以上的默认端口为9870。用户使用的端口和HDFS版本不匹配导致连接端口失败。 登录集群的主Master节点。 执行su - omm命令,切换到omm用户。 执行/opt/Bigdata/om-0.0.1/sbin/queryVersion.sh或者sh ${BIGDATA_HO
书导入第三方JDK或者JRE中。 配置方法 导出集群中的证书: 安装集群客户端,例如安装路径为“/opt/client”。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 生成证书文件 keytool
R_INTERNAL_ACCOUNT_PASSWORD”,并修改参数值为“true”。 使用root用户登录ClickHouse安装节点,切换到omm用户,进入“$BIGDATA_HOME/FusionInsight_ClickHouse_*/install/FusionInsi
(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 选择“HBase > 服务配置”,将“基础配置”切换为“全部配置”,进入HBase配置界面修改参数配置。 表1 HBase参数说明 参数 参数说明 参数值 hbase.regionserver