检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
准备连接集群配置文件 应用程序开发或运行过程中,需通过集群相关配置文件信息连接MRS集群,配置文件通常包括用于安全认证的用户文件,可从已创建好的MRS集群中获取相关内容。 用于程序调测或运行的节点,需要与MRS集群内节点网络互通。 配置并导入样例工程 MRS提供了不同组件场景
在“OBS路径”填写服务日志在OBS保存的路径。 需要填写完整路径且不能以“/”开头,路径可以不存在,系统将自动创建。OBS的完整路径最大支持900个字节。 在“桶名”输入已创建的OBS文件系统名称。 在“AK”和“SK”输入用户的Access Key ID和Secret Access Key。 单击“确定”完成日志下载。
集群软件配置和硬件配置信息后,在“高级配置”页签的弹性伸缩栏,打开对应Task节点类型后的开关按钮,即可进行弹性伸缩规则及资源计划的配置或修改。 图1 创建集群时配置弹性伸缩 您可以参考以下场景进行配置: 场景一:单独配置弹性伸缩规则 场景二:单独使用资源计划 场景三:弹性伸缩规则与资源计划叠加使用
操作结果。 约束限制: 不涉及 取值范围: true:操作成功 false:操作失败 默认取值: 不涉及 msg String 参数解释: 系统提示信息,可为空。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 cluster_id String 参数解释: 集群创建成功后系统返回的集群ID值。
succeeded:操作成功。 操作失败时返回的错误码信息如错误码所示。 取值范围: 不涉及 默认取值: 不涉及 请求示例 配置集群弹性伸缩规则 POST https://{endpoint}/v1.1/{project_id}/autoscaling-policy/{cluster_id} {
准备连接集群配置文件 应用程序开发或运行过程中,需通过集群相关配置文件信息连接MRS集群,配置文件通常包括用于安全认证的用户文件,可从已创建好的MRS集群中获取相关内容。 用于程序调测或运行的节点,需要与MRS集群内节点网络互通。 配置并导入样例工程 MRS提供了不同组件场景
是,执行3。 否,执行2。 联系网络管理员查看是否为网络故障,并修复故障。 是,执行3。 否,执行5。 等待5分钟,查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行4。 分别登录主备管理节点,执行su - omm命令切换到omm,用户进入“${BIGDATA_HOME}/
Streaming中定义了每60s一个批次,回写数据总共为600MB。而Kafka中定义了接收数据的阈值大小为500MB。那么此时回写数据已超出阈值。此时,会出现上述错误。 图1 应用场景 解决措施: 方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批
re节点或者Task节点,对集群进行缩容,以使MRS拥有更优的存储、计算能力,降低运维成本。用户执行MRS集群缩容后,MRS服务将根据节点已安装的服务类型自动选择可以缩容的节点。 Core节点在缩容的时候,会对原节点上的数据进行迁移。业务上如果对数据位置做了缓存,客户端自动刷新位
以下操作以使用TimeTravel Query查询Hudi COW表为例进行演示。 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。 若集群已启用Kerberos认证(安全模式),需先执行以下命令再连接Doris数据库: export LIBMYSQL_ENABLE_CLEARTEXT_PLUGIN=1
Streaming中定义了每60s一个批次,回写数据总共为600MB。而Kafka中定义了接收数据的阈值大小为500MB。那么此时回写数据已超出阈值。此时,会出现上述错误。 图1 应用场景 解决措施: 方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批
Streaming中定义了每60s一个批次,回写数据总共为600MB。而Kafka中定义了接收数据的阈值大小为500MB。那么此时回写数据已超出阈值。此时,会出现上述错误。 图1 应用场景 解决措施: 方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批
时提供大SQL、慢SQL的诊断与优化建议。 本章节适用于MRS 3.2.0及以后版本。 前提条件 集群运行正常并至少安装一个QAS实例。 已创建用于访问HetuEngine WebUI界面的用户,如Hetu_user,用户创建具体操作请参见创建HetuEngine权限角色。 开启SQL诊断功能
检查ZooKeeper服务状态。 查看ZooKeeper服务的运行状态是否为“良好”。 是,执行8。 否,执行6。 如果ZooKeeper服务已停止,则启动ZooKeeper服务,否则参考ALM-13000 ZooKeeper服务不可用的处理步骤进行操作。 再次执行5。 检查Broker实例状态。
列,1代表第2列,依次类推。 创建列加密表时,表所在的目录必须是空目录。 使用insert语句向设置列加密的表中导入数据。 假设test表已存在且有数据: insert into table <table_name> select <col_list> from test; 父主题:
SparkHome:集群中安装Spark的目录。 jars:应用程序代码和依赖包。 主体程序:处理数据 提交Application的描述请参见:https://archive.apache.org/dist/spark/docs/3.3.1/submitting-applications.html。
Kafka普通用户组。添加入本组的用户,需要被kafkaadmin组用户授予特定主题的读写权限,才能访问对应主题。 前提条件 已安装Kafka客户端。 用户已明确业务需求,并准备一个属于kafkaadmin组的用户,作为Kafka管理员用户。 操作步骤 登录FusionInsight
备GaussDB心跳IP地址 是,执行6。 否,执行4。 联系运维人员查看是否为网络故障。 是,执行5。 否,执行6。 修复网络故障,然后查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行6。 登录备GaussDB节点。 执行以下命令切换用户: sudo su - root su - omm 切
fs -put log1.txt /tmp/input,上传数据文件。 将导入的数据放置在Hive表里。 首先,确保ThriftServer已启动。然后使用Beeline工具,创建Hive表,并插入数据。 执行如下命令,创建命名为person的Hive表。 create table
在“备份配置”,勾选元数据选项并设置备份参数,详情请参见备份Manager数据(MRS 2.x及之前版本)。 单击“确定”保存。 在备份任务列表中已创建任务的“操作”列,若“备份类型”选择“周期备份”请单击“即时备份”,若“备份类型”选择“手动备份”请单击“启动”,开始执行备份任务。 父主题: