检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
noscan;)更新表元数据后进行广播。 需要广播的表是分区表,新建表且文件类型为非Parquet文件类型。 需要广播的表是分区表,更新表数据后。 参考信息 被广播的表执行超时,导致任务结束。 默认情况下,BroadCastJoin只允许被广播的表计算5分钟,超过5分钟该任务会出现超时异常,而
thrift.port配置),可以通过Beeline或者JDBC客户端代码来连接它,从而执行SQL命令。 如果您需要了解JDBCServer的其他信息,请参见Spark官网:http://archive.apache.org/dist/spark/docs/3.3.1/sql-programming-guide
会上报事件。 单位:GB。 100 job.monitor.local.thread.pool 获取NodeManager的监控的大作业的信息的线程数。 50 max.job.count 事件中显示大作业的数量。 10 job.monitor.local.dir.threshold
权限校验。 true spark.acls.enable 配置是否开启spark权限管理。 如果开启,将会检查用户是否有权限访问和修改任务信息。 true spark.admin.acls 配置spark管理员列表,列表中成员有权限管理所有spark任务,此处可以配置多个管理员用户,使用“,”分隔。
thrift.port配置),可以通过Beeline或者JDBC客户端代码来连接它,从而执行SQL命令。 如果您需要了解JDBCServer的其他信息,请参见Spark官网:http://archive.apache.org/dist/spark/docs/3.3.1/sql-programming-guide
检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下的“hosts”文件中的内容到客户端所在节点的hosts文件中,确保本地机器能与集群各主机在网络上互通。
权限校验。 true spark.acls.enable 配置是否开启Spark权限管理。 如果开启,将会检查用户是否有权限访问和修改任务信息。 true spark.admin.acls 配置Spark管理员列表,列表中成员有权限管理所有Spark任务,此处可以配置多个管理员用户,使用“
noscan;)更新表元数据后进行广播。 需要广播的表是分区表,新建表且文件类型为非Parquet文件类型。 需要广播的表是分区表,更新表数据后。 参考信息 被广播的表执行超时,导致任务结束。 默认情况下,BroadCastJoin只允许被广播的表计算5分钟,超过5分钟该任务会出现超时异常,而
需要处理大量重复数据,影响作业性能。 如A表字段(P1,A1,A2)使用如下方式关联B表字段(P1,B1,B2,B3)生成C的场景中,B表信息发生大量更新,但是B中的所需字段没有更新,在该关联中仅用到了B表的B1和B2字段,对于B表,每个记录更新只更新B3字段,B1和B2不更新,因此当B表更新,可以忽略更新后的数据。
二级索引表使用hive注册,并以json格式的值存储在HiveSERDEPROPERTIES中。由hive支持的SERDEPROPERTIES的最大字符数为4000个字符,无法更改。 父主题: 使用CarbonData(MRS 3.x及之后版本)
scheduler.monitor.policies”中的策略,启用新的scheduler监控。设置为“true”表示启用监控,并根据scheduler的信息,启动抢占的功能。设置为“false”表示不启用。 false yarn.resourcemanager.scheduler.monitor
修改“Module SDK” 单击“Apply”,单击“OK”。 配置Maven。 参考配置华为开源镜像仓章节描述,增加开源镜像仓地址等配置信息到本地Maven的“setting.xml”配置文件。 修改完成后,在IntelliJ IDEA选择“File > Settings > Build
Server客户端中不能访问,但可以使用WebHCat客户端访问。 在普通模式下使用HCatalog客户端,系统将以当前登录操作系统用户来执行DDL命令。 退出beeline客户端时请使用!q命令,不要使用“Ctrl + C”。否则会导致连接生成的临时文件无法删除,长期会累积产生大量的垃圾文件。
量使“HCAT_CLIENT”生效。 export HCAT_CLIENT=/opt/hive_client 执行以下命令用于配置环境变量信息(以客户端安装路径为“/opt/client”为例): export HADOOP_HOME=/opt/client/HDFS/hadoop
在左侧租户列表,单击目标的租户。 单击“资源”页签,可以执行以下操作管理租户目录。 查看租户目录: 在“HDFS 存储”表格中查看相关信息。 指定租户目录的“文件目录数上限”列表示文件和目录数量配额。(MRS管理控制台为“文件/目录数上限”) 指定租户目录的“存储空间配额”列表示租户目录的存储空间大小。
x版本,建议使用的版本为1.2.X、3.1.X,请执行搬迁前务必确认是否支持搬迁。 方案架构 Hive数据迁移分两部分内容: Hive的元数据信息,存储在MySQL等数据库中。MRS Hive集群的元数据会默认存储到MRS DBService组件,也可以选择RDS(MySQL)作为外置元数据库。
请参见配置Oozie作业操作HDFS文件 4 定义end action 请参见配置Oozie作业执行终点 5 定义kill action 请参见配置Oozie作业异常结束打印信息 依赖或新开发的jar包需要放在“dataLoad/lib”目录下。 流程文件样例: <workflow-app xmlns="uri:oozie:workflow:1
量使“HCAT_CLIENT”生效。 export HCAT_CLIENT=/opt/hive_client 执行以下命令用于配置环境变量信息(以客户端安装路径为“/opt/client”为例): export HADOOP_HOME=/opt/client/HDFS/hadoop
result String 参数解释: 更新映射请求操作结果。 约束限制: 不涉及 取值范围: succeeded:操作成功 failed:操作失败 默认取值: 不涉及 请求示例 在node_group_1节点组上缩容1个节点。 /v2/ff8080828997cb24018a1b2d
设置为false,表示日志不会收集到HDFS中。 修改参数值后,需重启Yarn服务使其生效。 说明: 在修改值为false并生效后,生效前的日志无法在UI中获取。您可以在“yarn.nodemanager.remote-app-log-dir-suffix”参数指定的路径中获取到生效前的日志。