检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
视图权限在SparkSQL权限上的限制与列权限相似,详细如下: 在spark-sql模式下,只有视图权限而没有表权限,且没有HDFS的读取权限时,用户不能访问HDFS上存储的表的数据,即该情况下不支持对该表的视图进行查询。 Beeline/JDBCServer模式下,用户间赋权,例如将A用户创建的视图赋权给B用户时。
Permissions”,勾选“Alter”。 说明: Cluster的Alter权限可以对以下三种场景进行权限控制: Partition Reassign场景下,迁移副本的存储目录。 集群里各分区内部leader选举。 Acl管理(添加或删除)。 其中1和2都是集群内部Controller与Broker间、Bro
视图权限在SparkSQL权限上的限制与列权限相似,详细如下: 在spark-sql模式下,只有视图权限而没有表权限,且没有HDFS的读取权限时,用户不能访问HDFS上存储的表的数据,即该情况下不支持对该表的视图进行查询。 Beeline/JDBCServer模式下,用户间赋权,例如将A用户创建的视图赋权给B用户时。
38, s)类型。 HetuEngine不支持读取Number(p, s)数据类型中“p-s>38”的列。 Oracle侧的Date类型只存储到秒,所以映射到HetuEngine的数据类型为timestamp(0)。 HetuEngine查询的时间戳类型数据,如果秒的小数精度大于
out查看执行情况(打印“rollback_package patch success.”表示执行完成)。 ECS重置密码插件升级(可选) 华为云ECS服务提供了一键式重置密码功能,弹性云服务器的密码丢失或过期时,可使用该功能进行一键式重置密码。重置密码插件为ECS内部运行的客户端进程
快速配置常用参数 配置项 说明 默认值 spark.sql.parquet.compression.codec 对于非分区parquet表,设置其存储文件的压缩格式。 在JDBCServer服务端的“spark-defaults.conf”配置文件中进行设置。 snappy spark.dynamicAllocation
快速配置常用参数 配置项 说明 默认值 spark.sql.parquet.compression.codec 对于非分区parquet表,设置其存储文件的压缩格式。 在JDBCServer服务端的“spark-defaults.conf”配置文件中进行设置。 snappy spark.dynamicAllocation
/var/log/Bigdata/audit/iotdb/iotdbserver/log_audit.log Manager日志清单说明 日志存储路径:Manager相关日志的默认存储路径为“/var/log/Bigdata/Manager组件”。 ControllerService:/var/log/
作业优先级,有效值:LOW/NORMAL/HIGH。 NORMAL -queue <arg> 队列。 default -storageType <arg> 存储类型。 HDFS -P <arg> 更新某个属性的值,格式:-Pparam1=value1,param1为作业模板中连接器对应的属性名称。
Ranger策略可以匹配到Hive库表的文件或目录权限,则优先使用HDFS Ranger策略。 Ranger策略中的URL策略是hive表存储在obs上的场景涉及,URL填写对象在obs上的完整路径。与URL联合使用的Read,Write 权限,其他场景不涉及URL策略。 Ran
户端来以命令行形式提交作业。 操作视频 本视频以在未开启Kerberos认证的MRS 3.1.0版本集群的管理控制台上,提交用于处理OBS存储的数据的Flink作业为例进行说明。 因不同版本操作界面可能存在差异,相关视频供参考,具体以实际环境为准。 前提条件 用户已经将作业所需的
作业优先级,有效值:LOW/NORMAL/HIGH。 NORMAL -queue <arg> 队列。 default -storageType <arg> 存储类型。 HDFS -P <arg> 更新某个属性的值,格式:-Pparam1=value1,param1为作业模板中连接器对应的属性名称。
0及之后版本,如果已参考Hive表支持级联授权功能章节开启了Hive表的级联授权功能,则无需对表所在的HDFS路径进行授权操作。 Ranger策略中的URL策略是Hive表存储在OBS上的场景涉及,URL填写对象在OBS上的完整路径。与URL联合使用的Read,Write权限,其他场景不涉及URL策略。 Rang
用户需要通过MySQL协议创建Broker Load 导入,并通过查看导入命令检查导入结果。适用以下场景: 源数据在Broker可以访问的存储系统中,如HDFS。 数据量在几十到百GB级别。 支持导入CSV、Parquet、ORC格式的数据,默认支持导入CSV格式数据。 前提条件
临时表 数据库临时表的表名,用于临时保存传输过程中的数据,字段需要和“表名”配置的表一致。 oracle-connector 表名 目标表,用于存储数据。 列名 指定要写入的列名,没有指定的列允许被设置为空值或者默认值。 mysql-fastpath-connector 架构名称 数据库模式名。
如果MRS集群节点故障或者网络不通,需要先隔离该节点,否则补丁会安装失败。 新特性和优化 MRS Manager MRS客户端支持通过FI manager/公有云Console更新配置 大数据组件 MRS支持对接lakeformation MemartCC支持统计缓存分片命中次数和驻留时间信息分布 解决的问题
spark.history.fs.updateInterval History server所显示信息的更新周期,单位为秒。每次更新检查持久存储中针对事件日志进行的更改。 10s spark.history.fs.update.interval.seconds 每个事件日志更新检查的间隔。与spark
HDFS缺失的块数量 14003 丢失的HDFS块数量超过阈值 HDFS存储数据丢失,HDFS可能会进入安全模式,无法提供写服务。丢失的块数据无法恢复。 0 需要复制副本的块总数 14028 待补齐的块数超过阈值 HDFS存储数据丢失,HDFS可能会进入安全模式,无法提供写服务。丢失的块数据无法恢复。
spark.history.fs.updateInterval History server所显示信息的更新周期,单位为秒。每次更新检查持久存储中针对事件日志进行的更改。 10s spark.history.fs.update.interval.seconds 每个事件日志更新检查的间隔。与spark
data_volume_count 是 Integer 参数解释: Task节点数据磁盘存储数目。 约束限制: 不涉及 取值范围: 0-20 默认取值: 不涉及 data_volume_size 是 Integer 参数解释: Task节点数据磁盘存储大小。传值只需填数字,不需要带单位GB。 约束限制: 不涉及