检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DataNode概率性出现CPU占用接近100%导致节点丢失 问题背景与现象 DataNode概率性出现CPU占用接近100%,导致节点丢失(ssh连得很慢或者连不上)。 图1 DataNode出现CPU占用接近100% 原因分析 DataNode有许多写失败的日志。 图2 DataNode写失败的日志
ALM-27005 数据库连接数使用率超过阈值 告警解释 系统每30秒周期性检查DBServer节点的数据库连接数使用率,并把实际数据库连接数使用率和阈值相比较,当数据库连接数的使用率连续5次(可配置,默认值为5)超过设定阈值时,系统将产生此告警,数据库连接数使用率的阈值设为90%(可配置,默认值为90%)。
创建Doris连接 以下代码片段在“JDBCExample”类的“createConnection”方法中。 USER和PASSWD为在创建连接时用于进行安全认证的用户名和密码。 Class.forName(JDBC_DRIVER); String dbUrl = String.
参数类型 描述 connector_id String 参数解释: 数据连接创建成功后系统返回的数据连接ID值。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 请求示例 创建mysql数据连接 /v2/ac66f1a5-e8f4-4399-8ec6-2c8cb1aefda7/data-connector
创建Doris连接 以下代码片段在“JDBCExample”类的“createConnection”方法中。 USER和PASSWD为在创建连接时用于进行安全认证的用户名和密码。 Class.forName(JDBC_DRIVER); String dbUrl = String.
n01\"}" } } 响应示例 状态码: 200 数据连接更新成功 { "result" : "succeed" } 状态码 状态码 描述 200 数据连接更新成功 错误码 请参见错误码。 父主题: 数据连接管理
产生告警的用户名。 对系统的影响 当同一个用户连接数太多时,产生告警的用户将无法与Broker建立新的连接。 可能原因 客户端使用同一个用户建立的连接个数超过设定阈值。 用户连接数使用率阈值设置不符合业务需求。 处理步骤 检查客户端使用同一个用户建立的连接个数。 在FusionInsight
配置多并发客户端连接JDBCServer 操作场景 JDBCServer支持多用户多并发接入,但当并发任务数量较高的时候,默认的JDBCServer配置将无法支持,因此需要进行优化来支持该场景。 操作步骤 设置JDBCServer的公平调度策略。 Spark默认使用FIFO(First
集群外节点提交Spark作业时报错无法连接Driver 运行Spark任务发现大量shuffle结果丢失 JDBCServer长时间运行导致磁盘空间不足 spark-shell执行SQL跨文件系统load数据到Hive表失败 Spark任务提交失败 Spark任务运行失败 JDBCServer连接失败 查看Spark任务日志失败
table命令报错 在beeline客户端执行dfs -put命令报错 执行set role admin命令报无权限 在beeline客户端创建UDF时报错 Hive服务状态为故障如何处理 Hive服务健康状态和Hive实例健康状态的区别 Shell客户端连接提示“authentication
网络连接超时导致FetchFailedException 问题 在380节点的大集群上,运行29T数据量的HiBench测试套中ScalaSort测试用例,使用以下关键配置(--executor-cores 4)出现如下异常: org.apache.spark.shuffle.F
S集群节点内网络互通。 登录FusionInsight Manager,在“主页”右上方单击“下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端配置文件压缩包为“FusionInsight
osts域名信息。 场景一:配置本地Windows开发环境与MRS集群节点内网络互通。 登录FusionInsight Manager,在“主页”右上方单击“下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
使用Loader 从零开始使用Loader Loader使用简介 Loader常用参数 创建Loader角色 Loader连接配置说明 管理Loader连接(MRS 3.x之前版本) 管理Loader连接(MRS 3.x及之后版本) Loader作业源连接配置说明 Loader作业目的连接配置说明
使用Oozie客户端提交Hive任务 操作场景 该任务指导用户在使用Oozie客户端提交Hive任务 Hive任务有如下类型: Hive作业 使用JDBC方式连接的Hive作业。 Hive2作业 使用Beeline方式连接的Hive作业。 本文以使用Oozie客户端提交Hive作业为例介绍。
使用Oozie客户端提交Hive任务 操作场景 该任务指导用户在使用Oozie客户端提交Hive任务 Hive任务有如下类型: Hive作业 使用JDBC方式连接的Hive作业。 Hive2作业 使用Beeline方式连接的Hive作业。 本文以使用Oozie客户端提交Hive作业为例介绍。
删除数据连接 功能介绍 删除数据连接 调用方法 请参见如何调用API。 URI DELETE /v2/{project_id}/data-connectors/{connector_id} 表1 路径参数 参数 是否必选 参数类型 描述 connector_id 是 String
行更新。 更新客户端配置期间,客户端不能正常对外提供服务,可能导致使用客户端的业务中断。 表2 更新客户端参数配置 参数名称 取值样例 描述 登录方式 密码 登录方式: 密码:使用密码登录。 SSH私钥:使用SSH私钥登录。 免密:选择该方式,用户需要具有免密登录节点的功能。 密码/SSH私钥
conf上传到MRS客户端所在节点。 步骤2-3仅启用Kerberos认证的集群执行,普通集群请直接从步骤4开始执行。 根据业务情况,准备好客户端,并登录安装客户端的节点。 例如在Master2节点更新客户端,则登录该节点使用客户端,具体参见使用MRS客户端。 执行以下命令切换用户。
从零开始使用Spark 本章节提供从零开始使用Spark提交sparkPi作业的操作指导,sparkPi是最经典的Spark作业,它用来计算Pi(π)值。 操作步骤 准备sparkPi程序。 开源的Spark的样例程序包含多个例子,其中包含sparkPi。可以从https://archive