检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果集群已开启Kerberos认证,已在Manager界面创建1个人机用户并关联到hadoop和hive用户组,主组为hadoop。 操作步骤 下载并安装Hudi客户端,具体请参考安装MRS客户端章节。 使用客户端安装用户登录客户端节点,执行如下命令进入客户端目录。 cd /opt/hadoopclient
如果设置的作业需要使用指定YARN队列功能,该用户需要已授权有相关YARN队列的权限。 设置任务的用户需要获取该任务的执行权限,并获取该任务对应的连接的使用权限。 操作步骤 设置作业基本信息 登录“Loader WebUI”界面。 登录FusionInsight Manager系统,具体请参见访问集群Manager。
FusionInsight_Cluster_1_Flume_ClientConfig.tar 如果在集群外节点安装Flume客户端,需执行如下步骤配置安装环境。在集群内节点安装可不执行该步骤。 执行以下命令,安装客户端运行环境到新的目录,例如“/opt/Flumeenv”。安装时自动生成目录。 sh /o
查询Hive person表的数据。 根据person表数据的key值去table2表做查询。 把前两步相应的数据记录做相加操作。 把上一步骤的结果写到table2表。 运行前置操作 安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user
DFS目录或文件的读、写和执行权限。 前提条件 已安装Ranger服务且服务运行正常。 已创建需要配置权限的用户、用户组或Role。 操作步骤 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击
--指定写入的是Hudi表。 'path' = 'obs://XXXXXXXXXXXXXXXXXX/', --指定Hudi表的存储路径。
当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 操作步骤 构建Jar包。 在IntelliJ IDEA中,在生成Jar包之前配置工程的Artifacts信息。 在IDEA主页面,选择“File >
{ClassPath}表示工程jar包的存放路径,详细路径由用户指定,可参考在Linux环境中调测Spark应用章节中导出jar包的操作步骤。 java -cp $SPARK_HOME/conf:$SPARK_HOME/jars/*:$SPARK_HOME/jars/strea
据进行处理。 本章节只适用于MRS产品Storm与JDBC组件间的访问。本章中描述的jar包的具体版本信息请以实际情况为准。 应用开发操作步骤 确认Storm组件已经安装,且正常运行。 下载Storm客户端,将Storm样例工程导入到Eclipse开发环境,参见导入并配置Storm样例工程。
{ClassPath}表示工程jar包的存放路径,详细路径由用户指定,可参考在Linux环境中编包并运行Spark程序章节中导出jar包的操作步骤。 java -cp $SPARK_HOME/conf:$SPARK_HOME/jars/*:$SPARK_HOME/jars/strea
检查Manager:EIP、安全组等相关网络配置正常的情况下,检查Manager是否运行正常。 检查用户密码:登录Manager使用的用户密码错误或失效。 处理步骤 登录MRS管理控制台页面,选择“现有集群”,查看MRS集群运行状态是否正常。 是,执行3。 否,如果MRS集群状态异常或正在创建中,或集
DataNode数据目录创建失败。 DataNode数据目录与系统关键目录(“/”或“/boot”)使用同一磁盘。 DataNode数据目录中多个目录使用同一磁盘。 处理步骤 查看告警原因和产生告警的DataNode节点信息。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中单击此告警。
管理员权限的角色并绑定给用户。 已安装MySQL客户端,相关操作可参考使用MySQL客户端连接Doris。 已安装Spark客户端。 操作步骤 在Doris中创建表并插入数据。 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。 如果集群已启用Kerberos认证(
修改CompiledPlan时不能破坏Json File文件结构,否则作业会提交失败。CompiledPlan的保存路径可以是HDFS路径也可以是OBS路径,本示例以HDFS路径为例。 使用方法 修改CompiledPlan中对应算子的“table.exec.resource.defaul
list”配置项的值,否则以HTTPS访问不了Yarn。单击“保存”,单击“确定”,保存完成后重启该服务。 TLSv1协议存在安全漏洞,请谨慎使用。 操作步骤 获取运行在Yarn上的任务的具体信息。 命令: curl -k -i --negotiate -u : "https://10-120-
使用Storm客户端提交拓扑,检查出重复“storm.yaml”问题。 重新打包Jar包,然后再提交拓扑。 修改Storm集群关于Worker启动超时参数。 处理步骤 使用Eclipse远程提交拓扑后Worker日志为空,则使用Storm客户端,提交拓扑对应的Jar包,查看提示信息。 例如,Jar包中包含两个不同路径下的“storm
join”参数并修改hive的配置hive.auto.convert.join为false,保存配置并重启服务。 该参数修改后会对业务性能有一定影响。继续执行后续步骤可不影响业务性能。 搜索“HIVE_GC_OPTS”参数并修改,把Xms调小,具体要根据业务评估,最小设置为Xmx的一半,修改完后保存配置并重启服务。
NameNode所设置的内存太小,频繁Full GC造成JVM卡顿。 NameNode配置参数不合理,导致NameNode无法充分利用机器性能。 处理步骤 获取该告警的信息。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中找到该告警。 单击该
外部表,此时在Beeline中可以直接查询到对应的Hive外部表,如果没有同步到Hive外部表,则可以通过Hudi客户端工具手动同步,具体步骤可参考将Hudi表数据同步到Hive。 查询Hudi表对应的Hive外部表 使用Hive对Hudi表进行增量查询前,需要设置表1的3个参数
family、column qualifier、timestamp、type、MVCC version这6个字段组成。Value就是对应存储的二进制数据对象。 Column Family 列族,一个表在水平方向上由一个或多个Column Family组成。一个CF(Column Family)