检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点上对应路径下找不到对应的kdc.conf文件,无法获取kerberos认证所需信息,导致ApplicationMaster启动失败。 解决办法 在客户端提交任务时,在命令行中配置自定义的spark.driver.extraJavaOptions参数这样任务运行时就不会自动加载
启动后要向Driver进程注册信息,注册成功后,任务才能继续。从AppMaster日志中可以看出,无法连接至Driver,所以任务失败。 解决办法 请检查Driver进程所在的IP是否可以ping通。 启动一个Spark PI任务,会有类似如下打印信息。 16/05/11 18:07:20
根据输出16进制TID,在线程堆栈中进行查找,发现在执行compaction操作。 对其它线程执行相同操作,发现均为compactions线程。 解决办法 属于正常现象。 发现消耗CPU较高线程均为HBase的compaction,其中部分线程调用Snappy压缩处理,部分线程调用HDF
profit)和group by子句,因此UPDATE操作失败。 如果查询的表设置了carbon.input.segments属性,则UPDATE操作失败。要解决该问题,在查询前执行以下语句。 语法: SET carbon.input.segments. <database_name>. <table_name>=*;
件包生成后根据浏览器提示下载客户端到本地并解压。 MRS 3.3.0及之后版本,登录FusionInsight Manager页面,在“主页”右上方单击“下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
件中,添加待对接数据源所在集群的主机名称和对应的IP映射,及其“/etc/hosts”文件中的“10.10.10.10 hadoop.系统域名”(如“10.10.10.10 hadoop.hadoop.com”),否则HetuEngine无法根据主机名称连接到非本集群节点。 已创建HetuEngine计算实例。
单击“下一步”,选择权限范围方案,默认选择“所有资源”,单击“展开其他方案”,选择“全局服务资源”,单击“确定”。 在弹出的提示框中单击“知道了”,开始授权。界面提示“授权成功。”,单击“完成”,委托成功创建。 创建存算分离集群 配置存算分离支持在新建集群中配置委托实现,也可以通过为已
repository”参数,依次单击“Apply”、“OK”。 图8 选择本地Maven安装目录 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings” 弹出“Settings”窗口。 在左边导航上选择“Editor
retention.hours”配置项,该值默认为7天,请根据需要进行修改。 可以单独将这些磁盘上的topic的数据老化时间修改为较短时间来解决该问题。 查看topic数据过期时间。 bin/kafka-topics.sh --describe --zookeeper <ZooKe
生页面上Job的描述信息无法正常关联到对应的SQL语句,同时spark-beeline命令行中回显的Execution ID为null,为解决JDBCServer OOM问题,同时显示信息正确,建议选择spark.sql.userlocalFileCollect参数进行配置。 false
保存配置并重启Yarn服务: MRS 2.x及之前版本,单击“保存配置”,选择“重新启动受影响的服务或实例。”并单击“确定”,重启Yarn服务。 界面提示“操作成功。”,单击“完成”,Yarn服务重启成功。 MRS 3.x及之后版本,单击“保存”,并在确认对话框中单击“确定”。单击“概览”,选择“更多
t-example”,单击“OK”,Windows下要求该文件夹的完整路径不包含空格。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings”。 弹出“Settings”窗口。 在左边导航上选择“Editor
repository”参数,依次单击“Apply > OK”。 图13 选择本地Maven安装目录 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings...”。 图14 Settings 在弹出的
建议使用Flume服务默认用户flume_server/hadoop.<系统域名>@<系统域名> 说明: “flume_server/hadoop.<系统域名>”为用户名,用户的用户名所包含的系统域名所有字母为小写。例如“本端域”参数为“9427068F-6EFA-4833-B43E-60CB641E5B6C
件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 已安装客户端时编译并运行程序 进入样例工程本地根目录,在Windows命令提示符窗口中执行下面命令进行打包。 mvn -s "{maven_setting_path}" clean package “{maven_s
MRS SQL防御规则。 例如添加一条规则ID为“static_0008”,SQL语句执行ClickHouse集群级别的表更新操作就进行“提示”的规则。 图1 添加ClickHouse SQL防御规则 登录安装有ClickHouse客户端的节点,执行以下命令,切换到客户端安装目录。
然后执行以下命令设置环境变量: source bigdata_env 如果集群采用安全版本,要执行以下命令进行安全认证: kinit hbase 按提示输入密码(向MRS集群管理员获取密码)。 执行hbase zkcli命令进入ZooKeeper客户端,然后执行命令listquota /h
登录FusionInsight Manager。 选择“集群 > 服务 > HetuEngine > 概览”。 在页面右上角,选择“更多 > 下载客户端”,根据界面提示下载“完整客户端”文件到本地。 解压HetuEngine客户端压缩包文件“FusionInsight_Cluster_集群ID_ HetuEngine_Client
客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64)单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端文件压缩包为“FusionInsight_Cluster_1_Services_Client.tar
如果集群已启用Kerberos认证(安全模式),执行以下命令进行用户认证。集群未启用Kerberos认证(普通模式)请跳过该步骤。 kinit hdfs 按提示输入密码,用户密码可以向MRS集群管理员获取,首次认证需要修改密码。 执行以下命令退出HDFS安全模式。 hdfs dfsadmin -safemode