检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
已创建需要配置权限的用户、用户组或Role。 操作步骤 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击“HDFS”区域的组件插件名称,例如“hacluster”。 单击“Add New Policy”,添加HDFS权限控制策略。
安全模式下需要将客户端安装节点的业务IP地址以及Manager的浮动IP地址追加到“flink-conf.yaml”文件中的“jobmanager.web.allow-access-address”配置项中,IP地址之间使用英文逗号分隔。 获取配置文件: 登录FusionInsight Ma
单击“集群 > 服务 > Doris > 实例”,查看任一FE实例的业务IP地址。 用户也可以使用MySQL连接软件或者在Doris WebUI界面连接数据库。 执行以下命令在目标Doris集群中创建JDBC Catalog: 源集群为MySQL服务端,目标MRS Doris集
Hive结构 云搜索服务(Cloud Search Service,简称CSS)是一个基于Elasticsearch、OpenSearch且完全托管的在线分布式搜索服务,为用户提供结构化、非结构化文本、以及基于AI向量的多条件检索、统计、报表。云搜索服务是华为云ELK生态的一系列软件集合,为
准备好的开发用户。 打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.
在FusionInsight Manager界面,选择“集群 > 服务 > HBase”,单击“HMaster Web UI”右侧的超链接,进入HMaster WebUI界面,单击“Region Servers”页签的“Compactions”即可查看到major compact进度。
locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus> listStatusIterator(final
生效。 创建用户时添加角色可细化用户的权限。 没有为新用户分配角色时,此用户可以访问HDFS、HBase、Yarn、Spark和Hue的WebUI。 根据业务实际需要“描述”。 “描述”为可选参数。 单击“确定”完成用户创建。 第一次在MRS集群中使用新创建的用户,例如登录Man
log,httpfs-localhost.<DATE>.log,httpfs-manager.<DATE>.log,localhost_access_web_log.log Tomcat运行日志。 审计日志 hdfs-audit-<process_name>.log ranger-plugin-audit
Manager,选择“集群 > 服务 > HetuEngine”,进入HetuEngine服务页面。 在概览页签下的“基本信息”区域单击“HSConsole WebUI”后的链接,进入HSConsole界面。 选择“计算实例 > 创建配置”。 在“基本配置”区域中,选择“所属租户”为用户所关联的租户,
r界面,单击“集群 > 服务 > Doris > 实例”,查看任一FE实例的IP地址。 用户也可以使用MySQL连接软件或者Doris WebUI界面连接数据库。 从远端已备份数据的仓库中恢复表或分区数据。例如: 从example_repo中恢复备份snapshot_label1
准备好的开发用户。 打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5
准备好的开发用户。 打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.
准备好的开发用户。 打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5
aseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器
ce /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新Hive用户的管理员权限。 set role admin; 设置在默认数据库中,查询其他用户表的权限
/opt/client/Spark2x/component_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 /opt/client/Spark2x/spark/bin/beeline -u "jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>
ClickHouse集群:ClickHouse集群是一个用于联机分析的列式数据库管理系统,具有压缩率和极速查询性能。广泛用于互联网广告、App和Web流量、电信、金融、物联网等众多领域。 实时分析集群:实时分析集群使用Hadoop、Kafka、Flink和ClickHouse组件提供一个
locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus> listStatusIterator(final
locatorId)相同,只是允许用户自定义checksum选项。 public void close() 使用完毕后关闭连接。 表5 HDFS客户端WebHdfsFileSystem接口说明 接口 说明 public RemoteIterator<FileStatus> listStatusIterator(final