检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当用户需要通过shell脚本来更新与运行Loader作业时,必须对已安装的Loader客户端进行配置。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的目录、HBase表和数据。
Doris集群高可用方案概述 支持MySQL协议的客户端通过FE与Doris集群建立连接,为了防止单点故障通常需要部署多个FE节点,并在多个FE上部署负载均衡来实现Doris的高可用。
可能原因 OBS服务端出现卡顿,或OBS客户端到OBS服务端之间的网络不稳定。 处理步骤 检查堆内存使用率。
可能原因 MySQL客户端连接Doris后,连接未关闭。 当前并发连接Doris的业务较多。 处理步骤 检查告警阈值配置或者平滑次数配置是否合理。
用户可以基于MRS管理控制台和OBS客户端对OBS数据进行浏览、管理和使用,也可以将OBS的数据导入集群的HDFS系统后进行处理,上传文件速率会随着文件大小的增大而变慢,适合数据量小的场景下使用。 导入OBS数据至HDFS 登录MRS管理控制台。
图1 导出流程示意 用户也可以通过Shell脚本来更新与运行Loader作业。该方式需要对已安装的Loader客户端进行配置。 父主题: 数据导出
需要在集群管理页面MRS Manager里面设置指定的参数到core-site.xml,AK/SK可登录“OBS控制台”,进入“我的凭证”页面获取。
集群jar包路径:客户端安装目录/Spark2x/spark/jars”或者“客户端安装目录/Spark/spark/jars”。 Spark jar包冲突也可以参考常见jar包冲突处理方式。 父主题: MRS应用开发开源jar包冲突列表说明
操作步骤 以Hive客户端安装用户登录源端集群安装客户端的节点。 执行以下命令,切换到客户端安装目录,例如安装目录为“/opt/client”,请用户根据实际情况修改。 cd /opt/client 执行以下命令配置环境变量。
重置后的密码必需满足当前用户密码策略,使用omm用户登录主OMS节点后,执行如下工具脚本可以获取到修改域名后的“人机”用户密码。
当前版本Spark结构流部分不再支持kafka2.x之前的版本,对于升级场景请继续使用旧的客户端。 父主题: Spark应用开发常见问题
以客户端安装用户登录安装了HDFS客户端的节点,并执行以下命令: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(若集群未启用Kerberos认证(普通模式),请跳过该操作) 执行以下命令查看损坏的WAL文件,并执行4。
登录MySQL客户端执行以下命令查看Sink表中是否接收到数据。
删除KafkaManager的WebUI界面的集群 登录KafkaManager的WebUI界面。 在对应集群的“Operations”列单击“Disable”。
已安装MySQL客户端,相关操作可参考使用MySQL客户端连接Doris。 已安装Flink客户端。 使用FlinkServer将Kafka数据写入到Doris中 Doris侧操作。 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。
以客户端安装用户登录安装了Hive客户端节点,执行如下命令: cd 客户端安装目录 source bigdata_env source Hive/component_env kinit 组件业务用户(集群未启用Kerberos认证(普通模式)请跳过该操作) 登录Hive客户端,并执行以下命令创建
更新MRS集群密钥(MRS 3.x及之后版本) 登录FusionInsight Manager。 选择“集群 > 停止”(MRS 3.3.0及之后版本,在主页右上角选择“更多 > 停止”),输入当前登录的用户密码确认身份。 在确认停止的对话框单击“确定”,等待界面提示停止成功。
数据规划 使用Spark-Beeline工具创建Spark和HBase表table1、table2,并通过HBase插入数据。 确保JDBCServer已启动。登录Spark2x客户端节点。 使用Spark-Beeline工具创建Spark表table1。
登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/hadoopclient source bigdata_env kinit HetuEngine组件操作用户 (普通模式集群跳过) 执行以下命令,登录数据源的catalog。
处理步骤 以root用户登录集群主Master节点。