检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
如果主集群中部分Phoenix表启用容灾功能同步数据,则备集群中不能存在与主集群Phoenix表同名的普通HBase表,否则启用容灾功能失败或影响备集群的同名表正常使用。 如果主集群中Phoenix表启用容灾功能同步数据,还需要对Phoenix表的元数据表启用容灾功能同步数据。需配置的元数据表包含SYSTEM
据WARN日志信息自动开启DEBUG日志,在环境中由于选择副本失败,导致一直启动Debug日志,不停地修改log4j,修改组件的log4j后进程会自动加载该配置文件,此时就会有新的线程自动产生,长时间后就会触发该告警。 出现这种情况时,将内置机制关闭,禁止自动修改日志级别即可恢复。
需要重启Hue服务。 已在集群中创建HetuEngine管理员“人机”用户,如hetu_user,可参考创建HetuEngine权限角色。启用Ranger鉴权的集群需根据业务需求为该hetu_user添加Ranger权限,可参考添加HetuEngine的Ranger访问权限策略。
流进行评估。 SQL查询语法 通过MATCH_RECOGNIZE的SQL语法实现。MATCH_RECOGNIZE子句自Oracle Database 12c起由Oracle SQL支持,用于在SQL中表示事件模式匹配。Apache Calcite同样支持MATCH_RECOGNIZE子句。
当前查询页码。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 job_name 否 String 参数解释: 作业名称。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群编号。 约束限制: 不涉及 取值范围:
支持ClickHouse备份到OBS。 解决ClickHouse物化视图的基表中添加列,报OOM的问题。 解决ClickHouse Mysql引擎偶现卡顿问题(root补丁修复)。 解决ClickHouse内存暴涨后出现停止响应的问题。 解决修改ClickHouse配置时nod
Hive客户端创建好对应的表。 FlinkServer对接Hive使用对接MetaStore的方式,故需要Hive开启MetaStore功能。 查看Hive是否开启MetaStore功能: 登录FusionInsight Manager,选择“集群 > 服务 > Hive > 配置
-t查看挂接的分区状态,发现java执行文件所在的挂载点的分区状态是“noexec”。当前环境中将安装MRS客户端所在的数据盘配置成“noexec”,即禁止二进制文件执行,从而无法使用java命令。 解决方法 以root用户登录MRS客户端所在节点。 移除“/etc/fstab”文件中MRS客
多的各种数据库、数据仓库等,此时会面临数据源种类繁多、数据集结构化混合、相关数据存放分散等困境,导致跨源查询开发成本高,跨源复杂查询耗时长。 HetuEngine提供了统一标准SQL实现跨源协同分析,简化跨源分析操作。 图1 永洪BI访问MRS HetuEngine 约束与限制 已安装Yonghong
DROP SCHEMA 语法 DROP (DATABASE|SCHEMA) [IF EXISTS] databasename [RESTRICT|CASCADE] 描述 DATABASE和SCHEMA在概念上是等价可互换的。 该语法用于删除数据库databasename,如果目标
admin; 设置在默认数据库中,查询其他用户表的权限 在“配置资源权限”的表格中选择“待操作集群的名称 > Hive > Hive读写权限”。 在数据库列表中单击指定的数据库名称,显示数据库中的表。 在指定表的“权限”列,勾选“查询”。 设置在默认数据库中,导入数据到其他用户表的权限
namenode.acls.enabled”表示是否启用HDFS ACL,默认为“true”启用ACL,请修改为“false”。 “dfs.permissions.enabled”表示是否为HDFS启用权限检查,默认为“true”启用权限检查,请修改为“false”。修改后HDFS中
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
默认创建的数据库或表保存在HDFS目录“/user/hive/warehouse”。系统自动以数据库名称和数据库中表的名称创建子目录。访问数据库或者表,需要在HDFS中拥有对应文件的权限,包含“读”、“写”和“执行”权限。 用户对SparkSQL数据库或表执行不同操作时,需要关
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
MRS对接LakeFormation操作指导,请参见:配置LakeFormation数据连接。 LakeFormation使用流程简介以及约束,请参见:LakeFormation使用流程简介。 Guardian新增开启accesslabel开关 Guardian支持自定义文件生成器 支持添加RangerKMS实例,提供数据加密服务
执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建ClickHouse表的权限。如果当前集群未启用Kerberos认证,则无需执行本步骤。 如果是MRS 3.1.0版本集群,则需要先执行:
执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建ClickHouse表的权限。如果当前集群未启用Kerberos认证,则无需执行本步骤。 如果是MRS 3.1.0版本集群,则需要先执行:
单击“添加角色”,输入“角色名称”和“描述”。 在“权限”的表格中选择“Hive > Hive Read Write Privileges”。 在数据库列表中单击用户B创建的表所在的数据库名称,显示用户B创建的表。 在用户B创建的表的“权限”列,勾选“Select”。 单击“确定”,返回“角色”。 选择“系统设置