检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
执行以下命令切换到客户端安装目录,配置环境变量并认证用户: cd HBase客户端安装目录 source bigdata_env kinit 组件业务用户(集群未启用Kerberos认证(普通模式)请跳过该操作) 执行以下命令登录HBase客户端,并创建表,写入数据后不要关闭HBase客户端。
除了使用相同的统一存储平台之外,Impala还使用与Apache Hive相同的元数据、SQL语法(Hive SQL)、ODBC驱动程序和用户界面(Hue中的Impala查询UI)。这为实时或面向批处理的查询提供了一个熟悉且统一的平台。作为查询大数据的工具补充,Impala不会替
除了使用相同的统一存储平台之外,Impala还使用与Apache Hive相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue中的Impala查询UI)。这为实时或面向批处理的查询提供了一个熟悉且统一的平台。作为查询大数据的工具补充,Impala不会替
Manager管理界面,选择“系统 > 权限 > 用户”,选择“更多 > 下载认证凭据”下载用户flume_hdfs的kerberos证书文件并保存在本地。 配置Flume角色的服务端参数,并将配置文件上传到集群。 以omm用户登录任意一个Flume角色所在的节点。执行以下命令进入
> 服务 > HetuEngine > 实例”,获取HSBroker所有实例的业务IP;在“配置”页签,搜索“server.port”,获取HSBroker端口号。 user 访问HetuServer的用户名,即在集群中创建的“人机”用户的用户名。 SSL 是否使用HTTPS连接,默认为“false”。
Serdes.Long())); } // 用户自己申请的机机账号keytab文件名称 private static final String USER_KEYTAB_FILE = "请修改为真实keytab文件名"; // 用户自己申请的机机账号名称 private static
添加全局hdfs-site.xml中用户自定义配置项 hbase.customized.configs 添加全局hbase-site.xml中用户自定义配置项 hive.customized.configs 添加全局hive-site.xml中用户自定义配置项 父主题: 使用Hue
查看用户组信息:用户组列表默认显示所有用户组。单击指定用户组名称左侧的箭头展开详细信息,可以查看此用户组中的用户数、用户以及绑定的角色。 修改用户组信息:在要修改信息用户组所在的行,单击“修改”,修改用户组信息。 导出用户组信息:单击“导出全部”,可一次性导出所有用户组信息,可导出“TXT”或者“CSV”格式。
Impala > 查询任务总数统计 > 提交中的查询总数”,检查阈值大小。 修改阈值大小。 选择“实例”页签,勾选所有“Impalad”实例并重启。 重启全部实例,服务不可用。重启单个实例,会导致当前实例节点正在执行的任务失败,服务可用。 重启完成后检查告警是否消失。 是,操作结束。 否,执行5。
Serdes.Long())); } // 用户自己申请的机机账号keytab文件名称 private static final String USER_KEYTAB_FILE = "请修改为真实keytab文件名"; // 用户自己申请的机机账号名称 private static
195.232:2181,192.168.169.84:2181” user 访问HetuEngine的用户名,即在集群中创建的“人机”用户的用户名。 password 在集群中创建的“人机”用户的用户密码。 父主题: HetuEngine样例程序(Java)
HetuEngine依赖的组件 名称 描述 HDFS Hadoop分布式文件系统(Hadoop Distributed File System),提供高吞吐量的数据访问,适合大规模数据集方面的应用。 Hive 建立在Hadoop基础上的开源的数据仓库,提供类似SQL的Hive Query Language
多种客户端连接方式,支持JDBC接口。 Hive的主要应用于海量数据的离线分析(如日志分析,集群状态分析)、大规模的数据挖掘(用户行为分析,兴趣分区,区域展示)等场景下。 为保证Hive服务的高可用性、用户数据的安全及访问服务的可控制,在开源社区的Hive-3.1.0版本基础上,Hive新增如下特性: 数据文件加
除了使用相同的统一存储平台之外,Impala还使用与Apache Hive相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue中的Impala查询UI)。这为实时或面向批处理的查询提供了一个熟悉且统一的平台。作为查询大数据的工具补充,Impala不会替
多种客户端连接方式,支持JDBC接口。 Hive的主要应用于海量数据的离线分析(如日志分析,集群状态分析)、大规模的数据挖掘(用户行为分析,兴趣分区,区域展示)等场景下。 为保证Hive服务的高可用性、用户数据的安全及访问服务的可控制,在开源社区的Hive-3.1.0版本基础上,Hive新增如下特性: 基于Kerberos技术的安全认证机制。
数据比对关联的数据同步任务中的数据库用户需要对当前Schema具有create function权限。 操作步骤 使用已创建的用户或admin用户(未开启Kerberos认证的集群)登录CDLService WebUI界面,请参考登录CDLService WebUI界面。 选择“作业管理
jar flux-wrappers-<version>.jar 获取业务相关其他jar包,如访问HDFS时需要获取的jar包请参见5,其他场景类似。 Flux配置文件样例 下面是一个完整的访问Kafka业务的yaml文件样例: name: "simple_kafka" components:
应用客户端,通常是需要提交任务(或者作业)的应用程序。 Application Server 应用服务端,通常是应用客户端需要访问的应用程序。 Kerberos 提供安全认证的服务。 KerberosAdmin 提供认证用户管理的进程。 KerberosServer 提供认证票据分发的进程。 步骤原理说明: 应用客户端(Application
处理步骤 登录Manager,停止HDFS服务。 在停止HDFS时,建议不要停止相关服务。 停止成功后,登录到被修改了RPC端口的Master节点。 如果两个Master节点都被修改了RPC端口,则只需登录其中一个修改即可。 执行su - omm命令切换到omm用户。 如果是安全集群,需要执行kinit
业进行启动、开发、停止、编辑、删除、查看作业详情和Checkpoint故障恢复等操作。 若要使用其他用户在节点上读取已提交的作业相关文件,需确保该用户与提交作业的用户具有相同的用户组和具有对应的FlinkServer应用管理权限角色,如参考创建FlinkServer权限角色勾选“应用查看”。