检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何设置Spark作业执行时自动获取更多资源? 问 如何设置Spark作业执行时自动获取更多资源? 答 对于Spark应用来说,资源是影响Spark应用执行效率的一个重要因素。当一个长期运行的服务(比如JDBCServer),如果分配给它多个Executor,可是却没有任何任务分
ALM-45450 ClickHouse获取临时委托凭据失败 本章节仅适用于MRS 3.3.1及之后版本。 告警解释 系统配置冷热分离功能和委托后,每隔1分钟检测一次临时委托凭据的更新状态,当连续3次检测到获取临时委托凭据失败时,系统产生告警。 当检测到系统获取临时委托凭据成功时,告警自动消除。
ALM-12110 获取ECS临时ak/sk失败 告警解释 meta每五分钟调用ECS接口获取AK/SK信息,并缓存在meta中,在AK/SK过期失效之前会再次调用ECS接口更新AK/SK,如果连续三次调用接口失败,会产生该告警。 当meta服务调用ECS接口成功时,告警清除。 告警属性
获取MRS集群主机列表接口时提示用户无权限 用户问题 使用AK/SK获取MRS集群主机列表/v1.1/<project_id>/clusters/<cluster_id>/hosts接口时,提示用户无权限“User do not have right to access cluster”。
SyncProducer) 通过异常信息,发现当前Consumer无法从Kafka Broker 192-168-234-231节点获取元数据,导致无法连接正确的Broker获取消息。 检查网络是否存在问题,如果网络没有问题,检查是否配置主机和IP的对应关系 Linux 执行cat /etc/hosts命令。
默认值 spark.yarn.security.credentials.hbase.enabled HBase是否获取Token: true:获取 false:不获取 false 父主题: 使用Spark2x(MRS 3.x及之后版本)
默认值 spark.yarn.security.credentials.hbase.enabled HBase是否获取Token: true:获取 false:不获取 false 父主题: 使用Spark/Spark2x
使用REST接口获取所有HBase表 功能简介 使用REST服务,传入对应host与port组成的url,通过HTTP协议,获取得到所有table。 代码样例 以下代码片段在“hbase-rest-example\src\main\java\com\huawei\hadoop\h
使用REST接口获取所有HBase表 功能简介 使用REST服务,传入对应host与port组成的url,通过HTTP协议,获取得到所有table。 代码样例 以下代码片段在“hbase-rest-example\src\main\java\com\huawei\hadoop\h
使用REST接口获取所有HBase表 功能简介 使用REST服务,传入对应host与port组成的URL,通过HTTPS协议,获取得到所有table。 代码样例 以下代码片段在“hbase-rest-example\src\main\java\com\huawei\hadoop\
使用REST接口获取所有HBase表 功能简介 使用REST服务,传入对应host与port组成的URL,通过HTTPS协议,获取得到所有table。 代码样例 以下代码片段在“hbase-rest-example\src\main\java\com\huawei\hadoop\
项目编号。获取方法,请参见获取项目ID。 约束限制: 不涉及 取值范围: 只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。
访问Spark应用获取的restful接口信息有误 问题 当Spark应用结束后,访问该应用的restful接口获取job信息,发现job信息中“numActiveTasks”的值是负数,如图1所示。 图1 job信息 numActiveTasks是指当前正在运行task的个数。
API 说明 reduce(f) 对RDD中的元素调用Func。 collect() 返回包含RDD中所有元素的一个数组。 count() 返回的是dataset中的element的个数。 first() 返回的是dataset中的第一个元素。 take(num) 返回前num个elements。
=> T): 对RDD中的元素调用f。 collect(): Array[T] 返回包含RDD中所有元素的一个数组。 count(): Long 返回的是dataset中的element的个数。 first(): T 返回的是dataset中的第一个元素。 take(num: Int):
API 说明 reduce(f) 对RDD中的元素调用Func。 collect() 返回包含RDD中所有元素的一个数组。 count() 返回的是dataset中的element的个数。 first() 返回的是dataset中的第一个元素。 take(num) 返回前num个elements。
API 说明 reduce(f) 对RDD中的元素调用Func。 collect() 返回包含RDD中所有元素的一个数组。 count() 返回的是dataset中的element的个数。 first() 返回的是dataset中的第一个元素。 take(num) 返回前num个elements。
获取运行中Spark应用的Container日志 运行中Spark应用的Container日志分散在多个节点中,本章节用于说明如何快速获取Container日志。 场景说明 可以通过yarn logs命令获取运行在Yarn上的应用的日志,针对不同的场景,可以使用以下命令获取需要的日志:
API 说明 reduce(f) 对RDD中的元素调用Func。 collect() 返回包含RDD中所有元素的一个数组。 count() 返回的是dataset中的element的个数。 first() 返回的是dataset中的第一个元素。 take(num) 返回前num个elements。
方法 说明 reduce(f) 对RDD中的元素调用Func。 collect() 返回包含RDD中所有元素的一个数组。 count() 返回的是dataset中的element的个数。 first() 返回的是dataset中的第一个元素。 take(num) 返回前num个elements。