检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
COLUMNS参数描述 参数 描述 db_name 数据库名。若未指定,则选择当前数据库。 table_name 表名。 col_name 表中的列名称。支持多列。列名称包含字母,数字和下划线(_)。 注意事项 对于删除列操作,至少要有一个key列在删除操作后存在于schema中,否则将显示出错信息,删除列操作将失败。
警产生。 使用客户端验证,通过hbase shell进入hbase命令行后,执行list验证需要运行多久。 开启HDFS的debug日志,然后查看下层目录很多的路径(hadoop fs -ls /XXX/XXX),验证需要运行多久。 打印HMaster进程jstack: su -
/ldapserver_unlockUsers.sh USER_NAME 其中,USER_NAME表示将要解锁的用户名称。 例如,解锁LDAP管理账户“cn=krbkdc,ou=Users,dc=hadoop,dc=com”的方法如下: ./ldapserver_unlockUsers.sh krbkdc
doop/common/lib/gsjdbc4-*.jar /tmp 报错中type为12时:调整数据库的pg_hba.conf文件,将address改成sqoop所在节点的ip。 场景二:(export场景)使用sqoop export命令抽取开源postgre到MRS hdfs或hive等。
~+∞”分为五个Region。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的testMultiSplit方法中。 public void testMultiSplit() { LOG.info("Entering
~+∞”分为五个Region。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的testMultiSplit方法中。 public void testMultiSplit() { LOG.info("Entering
~+∞”分为五个Region。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的testMultiSplit方法中。 public void testMultiSplit() { LOG.info("Entering
topic.replication.factor和transaction.state.log.replication.factor的值为2。 保存配置,并重启配置过期的服务或者实例。 父主题: 使用Kafka
ZooKeeper 升级到3.6.3版本。 管理控制台 支持补丁在线推送及更新。 支持包周期集群中的部分节点退订。 作业提交API新增支持FlinkSQL作业类型。 支持指定资源池的弹性伸缩能力。 Master主机规格升级功能支持多Master节点集群。 Bootstrap脚本支持以root用户身份执行。
[catalog_name.][db_name.]table_name [PARTITION (partitionSpecs)]; 描述 用于列出指定的所有分区。 示例 SHOW PARTITIONS test PARTITION(hr = '12', ds = 12); SHOW PARTITIONS
count(*) from table_name;前确认需要查询的数据量大小,确认是否需要在beeline中显示如此数量级的数据。 如数量在一定范围内需要显示,请调整hive客户端的jvm参数, 在hive客户端目录/Hive下的component_env中添加export HIVE_O
Flink流式读Hudi表建议 设置合理的消费参数避免File Not Found问题 当下游消费Hudi过慢,上游写入端会把Hudi文件归档,导致File Not Found问题。优化建议如下: 调大read.tasks。 如果有限流则调大限流参数。 调大上游compaction、archive、clean参数。
FusionInsight Manager界面操作: 登录FusionInsight Manager。 选择“系统 > 权限 > 用户”。 在使用的用户所在行的单击“修改”。 为用户添加kafkaadmin组。单击“确定”完成修改操作。 通过命令id查询用户组信息。 [root@10-10-144-2
argparse错误 问题 在客户端使用sqlline脚本时,报import argparse错误。 回答 以root用户登录安装HBase客户端的节点,使用hbase用户进行安全认证。 进入HBase客户端sqlline脚本所在目录执行python3 sqlline.py命令。 父主题:
argparse错误 问题 在客户端使用sqlline脚本时,报import argparse错误。 回答 以root用户登录安装HBase客户端的节点,使用hbase用户进行安全认证。 进入HBase客户端sqlline脚本所在目录执行python3 sqlline.py命令。 父主题:
log.dir Tez日志目录。 /var/log/Bigdata/tez/tezui property.tez.log.level Tez的日志级别。 INFO 父主题: 使用Tez
准备好自定义jar包,并上传到客户端节点。本操作以“spark-test.jar”为例,上传到客户端节点“/tmp”目录下。 配置参数 以客户端安装用户,登录安装客户端的节点,执行如下命令: cd {客户端安装目录} source bigdata_env 如果集群已启用Kerberos认证(安全模式),执行以
扩容时是否在新增节点上跳过执行创建集群时指定的引导操作。 约束限制: 不涉及 取值范围: true:跳过执行创建集群时指定的引导操作。 false:不跳过执行创建集群时指定的引导操作。 默认取值: true scale_without_start 否 Boolean 参数解释: 扩容后是否选择不启动扩容节点上的组件。
log.dir Tez日志目录。 /var/log/Bigdata/tez/tezui property.tez.log.level Tez的日志级别。 INFO 父主题: 使用Tez
newTableName 参数描述 表1 RENAME参数描述 参数 描述 oldTableName 现有表名。 new_table_name 现有表名的新表名。 示例 alter table h0 rename to h0_1; 系统响应 可以通过运行SHOW TABLES显示新表名称。 父主题: