检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
表,Key列是兼顾排序列和唯一标识列,是真正意义上的Key列。 数据模型的选择建议 因为数据模型在建表时就已经确定,且无法修改。所以,选择一个合适的数据模型非常重要。 Aggregate模型可以通过预聚合,极大地降低聚合查询时所需扫描的数据量和查询的计算量,适合有固定模式的报表类
句。 灵活的数据存储格式,支持JSON、CSV、TEXTFILE、RCFILE、SEQUENCEFILE、ORC等存储格式。 Hive作为一个基于HDFS和MapReduce架构的数据仓库,其主要能力是通过对HQL(Hive Query Language)编译和解析,生成并执行相
检查浏览器是否配置了内部网络代理、是否添加了会拦截用户Token的安全设置。 如果多次刷新均无法显示Manager登录页面,可尝试清除浏览器缓存或者更换一个浏览器查看。 登录集群Manager后仍旧出现的页面空白或异常等现象,可参考登录集群Manager常见异常问题进行处理。 进入集群Mana
Token认证机制工具使用说明为用户生成Token时产生。 在使用Token认证机制时,需要把Kerberos认证机制注释掉,保证代码运行过程中只使用一个认证机制,如下所示: public static void main(String[] args) { if
"cn-north-7a", "support_physical_az_group" : true } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
Yarn > 调度队列 > root”,勾选“default”的“提交”,单击“确定”保存。 选择“用户 > 添加用户”,在新增用户界面,创建一个机机用户,例如developuser。 “用户组”需加入“hadoop”用户组。 “角色”加入新增的角色,例如developrole。 使
"flavor_name" : "m6.xlarge.8" } ] } ] } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
Token认证机制工具使用说明为用户生成Token时产生。 在使用Token认证机制时,需要把Kerberos认证机制注释掉,保证代码运行过程中只使用一个认证机制,如下所示: public static void main(String[] args) { if
ConfiguredFailoverProxyProvider</value> </property> 若对接的Hudi数据源集群和HetuEngine处于同一个Hadoop集群中,“hdfs-site.xml”和“core-site.xml”配置文件的获取方式为从HDFS中获取,参考HDFS客户端
配置组件隔离访问Hive MetaStore 操作场景 MRS 3.2.0及之后的版本支持此功能,此功能用于限制集群内组件连接指定的Hive MetaStore实例,组件默认可连接所有MetaStore实例。 目前集群中支持连接MetaStore的组件有HetuEngine、Hi
修改DBService数据库compdbuser用户密码 建议管理员定期修改OMS数据库管理员的密码,以提升系统运维安全性。 该章节内容仅适用于MRS 3.x及之后版本。 登录FusionInsight Manager界面,选择“集群 > 服务 > DBService > 实例”
列的原始数据(如site_id),也可以是函数调用的结果,如上面的SQL语句采用了随机值rand()。注意该键要尽量保证数据均匀分布,另外一个常用的操作是采用区分度较高的列的哈希值,如intHash64(user_id)。 ClickHouse表数据操作 客户端登录ClickHouse节点。例如:
的可选配置。 MRS 3.1.0.0.8以及之后的补丁Spark新增在Parquet/ORC分区表场景下,执行insert相关命令时,提供一个可选配置“spark.sql.hive.convertInsertingPartitionedTable”,用于控制Spark DataS
"error_msg" : "查询作业失败", "error_code" : "0162" } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
单击“确定”,返回“角色”。 选择“系统设置 > 用户管理 > 添加用户”。 输入用户名,在“用户类型”选择“人机”类型,设置用户密码,在用户组添加一个绑定了Hive管理员角色的用户组,并绑定新创建的Hive角色,单击“确定”完成Hive用户创建。 待用户生成后,即可使用该用户执行相应SQL语句。
ientConfig”,执行下列命令安装客户端 sh install.sh /opt/client 其中“/opt/client”为用户自定义路径,此处仅为举例。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source bigdata_env REST接口
"error_code" : "MRS.00000000", "error_msg" : "标签配额不足" } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 关闭集群默认标签 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
配置Spark表、列和数据库的用户权限 操作场景 使用SparkSQL操作表或者数据库时,如果用户访问别人创建的表或数据库,需要授予对应的权限。为了实现更严格权限控制,SparkSQL也支持列级别的权限控制。如果要访问别人创建的表上某些列,需要授予列权限。以下介绍使用Manage
配置Spark表、列和数据库的用户权限 操作场景 使用SparkSQL操作表或者数据库时,如果用户访问别人创建的表或数据库,需要授予对应的权限。为了实现更严格权限控制,SparkSQL也支持列级别的权限控制。如果要访问别人创建的表上某些列,需要授予列权限。以下介绍使用Manage
entConfig”,执行下列命令安装客户端。 sh install.sh /opt/client 其中“/opt/client”为用户自定义路径,此处仅为举例。 进入客户端安装目录/opt/client,执行下列命令初始化环境变量。 source bigdata_env 执行下