检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请联系管理员获取相应账号对应权限的“user.keytab”和“krb5.conf”文件,“hbase-site.xml”从HBase客户端获取,“hiveclient.properties”和“hive-site.xml”从Hive客户端获取。 在新建的文件夹中创建文件“jaas_mr.conf”,文件内容如下:
存在的风险,并接受对集群可能造成的异常或影响。”,单击“确定”。 HDFS路径:选择“/tmp/test”,单击“确定”。 图5 从OBS导入数据到HDFS 单击“确定”,等待数据导入成功,此时数据文件已上传至MRS集群的HDFS文件系统内。 图6 数据导入成功 步骤3:创建Hive表
0.1-admin/ranger-admin-keystore.jks_bak 如果集群已安装Ranger,则需更新证书,更新指导如下: 从obs-patch桶中下载MRS_1.9_Patch_UpdateRangerJks_All_20210203.tar.gz,并上传到集群主
使用多级agent串联从本地采集静态日志保存到HDFS 操作场景 该任务指导用户使用Flume从本地采集静态日志保存到HDFS上如下目录“/flume/test”。 本章节适用于MRS 3.x及之后版本。 前提条件 已成功安装集群、HDFS及Flume服务、Flume客户端。 已
numbers LIMIT 100000000; 【查询明细表】 【查询物化视图】 【效果对比】 使用物化视图后,遍历的数据量从1亿下降到2000,耗时从0.211秒下降到0.002秒,性能提升100倍。 使用bitmap做跨表预估计算。 【场景】 用户画像,用户数预估:计算t_r_309和t_r_308
rk/Spark2x服务中,用户从Manager页面下载包含Spark/Spark2x服务的客户端即可,例如客户端安装目录为“/opt/hadoopclient”。 如果集群已开启Kerberos认证,已在Manager界面创建1个人机用户并关联到hadoop和hive用户组,主组为hadoop。
232:2181,192.168.169.84:2181”。 其中“sparkthriftserver”是Zookeeper上的目录,表示客户端从该目录下随机选择Triftserver实例或proxyThriftServer进行连接。 用户可登录Manager,选择“系统 > 权限 >
登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 更多 > 下载客户端” ,下载客户端压缩文件到本地机器。如图3所示: 图3 客户端配置 使用客户端根目录中的“ca.crt”证书文件生成客户端的“truststore”。 执行命令如下:
DOUBLE 双精度浮点数,15到17个有效位,具体取决于使用场景,有效位位数并不取决于小数点位置 64位 4.94065645841246544e-324 ~1.79769313486231570e+308,正或负 DOUBLE FLOAT 单精度浮点数,6到9个有效位,具体取决于使用场景,有效位位数并不取决于小数点位置
orm-JDBC中包含两类Bolt:JdbcInsertBolt和JdbcLookupBolt。其中,JdbcLookupBolt主要负责从数据库中查数据,JdbcInsertBolt主要向数据库中存数据。当然,JdbcLookupBolt和JdbcInsertBolt中也可以增加处理逻辑对数据进行处理。
员通过角色管理功能授予角色使用Hive的权限,会自动关联HDFS权限。 Hive用户使用load将指定目录下所有文件或者指定文件,导入数据到Hive表。 数据源为Linux本地磁盘,指定目录时需要此目录已经存在,系统用户“omm”对此目录以及此目录上层的每一级目录拥有“r”和“x
HColumnDescriptor column) 添加一个列簇到指定的表。 void deleteColumn(final TableName tableName, final HColumnDescriptor column) 从指定的表删除指定的列簇。 void modifyColumn(final
mple样例工程。 将准备MRS应用开发用户时得到的keytab文件“user.keytab”和“krb5.conf”用户认证凭据文件复制到OozieSparkHBaseExample和OozieSparkHiveExample样例工程的“\src\main\resources”路径。
ClickHouse索引设计 一级索引设计 在建表设计时指定主键字段的建议:按查询时最常使用且过滤性最高的字段作为主键。依次按照访问频度从高到低、维度基数从小到大来排列。数据是按照主键排序存储的,查询的时候,通过主键可以快速筛选数据,合理的主键设计,能够大大减少读取的数据量,提升查
使用多级agent串联从本地采集静态日志保存到HDFS 该任务指导用户使用Flume从本地采集静态日志保存到HDFS上如下目录“/flume/test”。 前提条件 已成功安装集群、HDFS及Flume服务、Flume客户端。 已创建用户flume_hdfs并授权验证日志时操作的HDFS目录和数据。
如果用户集群开启Kerberos认证需要使用kerberos认证。 表1 安全认证方式 安全认证方式 说明 配置方法 Kerberos认证 当前只支持keytab认证方式。 从FusionInsight Manager下载用户keytab,并将keytab放到Flink客户端所在主机的某个文件夹下。 在“flink-conf
个配置文件,例如“/opt/client/conf”。 “hbase-site.xml”从HBase客户端获取,“hiveclient.properties”和“hive-site.xml”从Hive客户端获取。 在Linux环境中添加样例工程运行所需的classpath,例如 export
orm-JDBC中包含两类Bolt:JdbcInsertBolt和JdbcLookupBolt。其中,JdbcLookupBolt主要负责从数据库中查数据,JdbcInsertBolt主要向数据库中存数据。当然,JdbcLookupBolt和JdbcInsertBolt中也可以增加处理逻辑对数据进行处理。
安装集群客户端 安装包含HetuEngine服务的集群客户端,例如安装目录为“/opt/hadoopclient”。 准备MySQL驱动 从MySQL官网获取MySQL驱动文件,格式为“xxx.jar”,支持版本为MySQL 5.7,MySQL 8.0及以后版本。 上传MySQL
mple样例工程。 将准备MRS应用开发用户时得到的keytab文件“user.keytab”和“krb5.conf”用户认证凭据文件复制到OozieSparkHBaseExample和OozieSparkHiveExample样例工程的“\src\main\resources”路径。