检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Storm-HBase开发指引 操作场景 本章节只适用于MRS产品中Storm和HBase交互的场景。本章中描述的jar包的具体版本信息请以实际情况为准。 安全模式下登录方式分为两种,票据登录和keytab文件登录,两种方式操作步骤基本一致。票据登录方式为开源提供的能力,存在票据
更改DataNode的存储目录 操作场景 本章节适用于MRS 3.x及后续版本。 HDFS DataNode定义的存储目录不正确或HDFS的存储规划变化时,MRS集群管理员需要在FusionInsight Manager中修改DataNode的存储目录,以保证HDFS正常工作。适用于以下场景:
hive用户组中的testuser用户将对Hive的“default”数据库中的表“dataorigin”的“name”列有Create和select的权限,而对于其他列则没有任何的访问权限。 登录Impala客户端,验证Ranger是否已经完成集成Impala。 以客户端安装
不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka").option("subscribe"
BulkLoad功能提示权限不足如何处理 问题 租户使用HBase bulkload功能提示权限不足。 回答 创建租户的时候需要关联HBase服务和Yarn队列。 例如: 新建用户user并绑定租户同名的角色。 用户user需要使用bulkload功能还需要额外权限。 以下以用户user为例:
<arg>:绑定YARN session。 -h:获取帮助。 查询集群中运行的程序。 flink stop -d,--drain:在触发savepoint和停止作业之前,发送MAX_WATERMARK。 -p,--savepointPath <savepointPath>:savepoint的储存路径,默认目录state
<arg>:绑定YARN session。 -h:获取帮助。 查询集群中运行的程序。 flink stop -d,--drain:在触发savepoint和停止作业之前,发送MAX_WATERMARK。 -p,--savepointPath <savepointPath>:savepoint的储存路径,默认目录state
Settings”。 弹出“Settings”窗口。 在左边导航上选择“Editor > File Encodings”,在“Global Encoding”和“Project Encodings”区域,设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图2所示。 图2 设置IntelliJ
否:执行2。 准备系统用于自动刷新的用户。 在本端集群和对端集群同时创建同名人机用户。 以mvuser为例,对端集群需要为mvuser添加“supergroup”用户组,本端集群需要为mvuser添加“supergroup”和“hive”用户组,并且添加对应维护实例的租户角色。
业,提交作业之前,首先需要创建一个工作流。 前提条件 使用Hue提交Oozie作业之前,需要提前配置好Oozie客户端,并上传样例配置文件和jar至HDFS指定目录,具体操作请参考Oozie客户端配置说明章节。 操作步骤 准备一个具有对应组件操作权限的用户。 例如:使用admin用户登录FusionInsight
业,提交作业之前,首先需要创建一个工作流。 前提条件 使用Hue提交Oozie作业之前,需要提前配置好Oozie客户端,并上传样例配置文件和jar至HDFS指定目录,具体操作请参考Oozie客户端配置说明章节。 操作步骤 准备一个具有对应组件操作权限的用户。 例如:使用admin用户登录FusionInsight
Hive读写权限”,在待操作数据库所在行勾选“查询”、“删除”、“插入”、“建表”、“Select授权”、“Delete授权”、“Insert授权”和“递归”权限,单击“确定”。 单击“用户”,单击提交该任务的用户所在行的“修改”,在角色中新增1新建的角色,单击“确定”。 选择“集群 > 服务
Settings”。 弹出“Settings”窗口。 在左边导航上选择“Editor > File Encodings”,在“Global Encoding”和“Project Encodings”区域,设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图2所示。 图2 设置IntelliJ
登录MRS Manager页面,选择“系统配置 > 角色管理 > 添加角色”。 输入角色名称。 在“权限”区域选择Hive,出现Hive管理员权限和Hive表的读写权限。 选择“Hive Read Write Privileges”Hive表的读写权限,此时显示列Hive中的所有数据库。
保存配置需要等待一段时间,界面右上角弹出提示“租户创建成功。”,租户成功添加。 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“系统 > 权限> 角色”进行手动管理,角色名称为“租户名称_集群ID”。首个集群的集群ID默认不显示。
不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka").option("subscribe"
不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka").option("subscribe"
不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka").option("subscribe"
建议使用新的API createDirectStream代替旧的API createStream进行应用程序开发。旧的API仍然可以使用,但新的API性能和稳定性更好。 该样例代码只存在于mrs-sample-project-1.6.0.zip中。 /** * 参数解析: * <checkP
支持与MapReduce,Spark和其他Hadoop生态系统组件集成 与Apache Impala的紧密集成,使其成为将HDFS与Apache Parquet结合使用的更好选择 提供强大而灵活的一致性模型,允许您根据每个请求选择一致性要求,包括用于严格可序列化的一致性的选项 提供同时运行顺序读写和随机读写的良好性能