检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
server 10.79.3.251 offset +2.118107 sec 其中+2.118107 sec表示时间偏差。正数表示NTP服务器时间比集群当前时间快,负数表示NTP服务器时间比集群当前时间慢。 ntp的版本号可以使用ntpq -v或者ntpq --version命令查询,具体显示信息以实际环境为准。
bigdata_env kinit hbase hbase shell set_clusterState_active 界面提示以下信息表示执行成功: hbase(main):001:0> set_clusterState_active => true 确认HBase上层应用中原有的配置文件“hbase-site
组删除集群,仅允许操作MRS集群基本操作,如创建集群、查询集群列表等。多数细粒度策略以API接口为粒度进行权限拆分,MRS支持的API授权项请参见权限策略和授权项。 如表1所示,包括了MRS的所有默认系统策略。 表1 MRS系统策略 策略名称 描述 策略类别 MRS FullAccess
Hudi在upsert时占用了临时文件夹中大量空间 Hudi写入小精度Decimal数据失败 使用Spark SQL删除MOR表后重新建表写入数据无法同步ro、rt表 使用kafka采集数据时报错IllegalArgumentException Hive同步数据报错SQLException
| 3 | 执行以下命令创建目的表t2: create table t2(col1 int,col2 int); 本样例工程中创建的表使用Hive默认的存储格式,暂不支持指定存储格式为ORC的表。 执行以下命令使用Yarn客户端提交任务: yarn --config
| 3 | 执行以下命令创建目的表t2: create table t2(col1 int,col2 int); 本样例工程中创建的表使用Hive默认的存储格式,暂不支持指定存储格式为ORC的表。 执行以下命令使用Yarn客户端提交任务: yarn --config
kinit hbase hbase shell set_clusterState_active 界面提示以下信息表示执行成功: hbase(main):001:0> set_clusterState_active => true 确认HBase上层应用中原有的配置文件“hbase-site
KafkaConsumer("test-topic", bootstrap_servers=["broker_ip:21007"], group_id="test-group", enable_auto_commit="true", security_protocol="SASL_PLAINTEXT"
SQL函数和操作符说明 HetuEngine辅助命令语法 HetuEngine预留关键字 HetuEngine数据类型隐式转换 HetuEngine样例表数据准备 HetuEngine常用数据源语法兼容性说明 父主题: 使用HetuEngine
Iceberg常用SQL语法 创建表 删除表 修改表 插入表数据 父主题: 使用Iceberg
Spark SQL企业级能力增强 配置矢量化读取ORC数据 配置过滤掉分区表中路径不存在的分区 配置Drop Partition命令支持批量删除 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 配置Spark SQL语法支持关联子查询不带聚合函数
ce.html 新建表,新增分区等表结构变动操作后,执行Invalidate metadata <table>, 在数据入库/湖后,对于发生变化的表/分区进行主动refresh更新impala元数据 在非Impala引擎(Hive,Spark等)新建、修改表,需要在Impala侧执行Invalidate
且Scala语言具有简洁易懂的特性,推荐用户使用Scala语言进行Spark应用程序开发。 按不同的语言分,Spark的API接口如表1所示。 表1 Spark API接口 接口 说明 Scala API 提供Scala语言的API。由于Scala语言的简洁易懂,推荐用户使用Scala接口进行程序开发。
如果当前集群已启用Kerberos认证,需先配置客户端认证,可参考5。如果当前集群未启用Kerberos认证,则无需执行该步骤。 参考表1运行相关命令。 表1 Flink Shell命令参考 命令 参数说明 描述 yarn-session.sh -at,--applicationType
xml。 MapReduce客户端配置文件路径:客户端安装目录/HDFS/hadoop/etc/hadoop/mapred-site.xml。 表1 多CPU内核设置 配置 描述 参数 默认值 Server/Client 影响 备注 节点容器槽位数 如下配置组合决定了每节点任务(map、reduce)的并发数。
> 待操作集群的名称 > 服务 > Impala > 配置 > 全部配置 > Impalad(角色) > LDAP”。 配置如下参数的值。 表1 参数配置 参数名称 参数描述 备注 --enable_ldap_auth 是否开启LDAP认证 【取值范围】 true或false --ldap_bind_pattern
解决jobhistory内存泄漏问题 解决Hive truncate表超时失败问题 解决Hive增量任务失败后表数据文件不存在问题 解决Hive sql运行异常问题 解决安全集群创建carbon表后生成的目录hive组没权限,其他用户不能创建carbon表的问题 解决spark jdbcserver进程异常问题
导出命令的超时时间同查询的超时时间,可以通过SET query_timeout=xxx进行设置。 对于结果集为空的查询,依然会产生一个大小为0的文件。 文件切分会保证一行数据完整的存储在单一文件中,因此文件的大小并不严格等max_file_size。 对于部分输出为非可见字符的函数
MergeTree ClickHouse拥有非常庞大的表引擎体系,MergeTree作为家族系统最基础的表引擎,提供了数据分区、一级索引和二级索引等功能。在创建表的时候需要指定表引擎,不同的表引擎会决定一张数据表的最终“性格”,比如数据表拥有何种特性、数据以何种形式被存储以及如何被加载。
MergeTree ClickHouse拥有非常庞大的表引擎体系,MergeTree作为家族系统最基础的表引擎,提供了数据分区、一级索引和二级索引等功能。在创建表的时候需要指定表引擎,不同的表引擎会决定一张数据表的最终“性格”,比如数据表拥有何种特性、数据以何种形式被存储以及如何被加载。