检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MySQL链路任务启动时如何从指定位置抓取数据 现象描述 MySQL链路任务启动时,可以从指定位置抓取数据,本章节主要介绍如何获取指定位置参数。 图1 启动任务 处理步骤 使用工具或者命令行连接MySQL数据库(本示例使用Navicat工具连接)。 执行以下命令。 SHOW MASTER
如何对Hive表大小数据进行监控 问题 如何对Hive中的表大小数据进行监控? 回答 当用户要对Hive表大小数据进行监控时,可以通过HDFS的精细化监控对指定表目录进行监控,从而到达监控指定表大小数据的目的。 前提条件 Hive、HDFS组件功能正常 HDFS精细化监控功能正常
如何对Hive表大小数据进行监控 问题 如何对Hive中的表大小数据进行监控? 回答 当用户要对Hive表大小数据进行监控时,可以通过HDFS的精细化监控对指定表目录进行监控,从而到达监控指定表大小数据的目的。 前提条件 Hive、HDFS组件功能正常 HDFS精细化监控功能正常
如何在导入Hive表时指定输出的文件压缩格式? 问题现象 如何在导入Hive表时指定输出的文件压缩格式? 处理步骤 当前Hive支持以下几种压缩格式: org.apache.hadoop.io.compress.BZip2Codec org.apache.hadoop.io.compress
提交Hive任务时如何指定队列? 问题现象 怎样在Hive提交任务的时候指定队列? 处理步骤 在执行语句前通过如下参数设置任务队列,例如,提交任务至队列QueueA。 set mapred.job.queue.name=QueueA; select count(*) from rc;
如何查看指定Yarn任务的日志? 以root用户登录主Master节点。 执行如下命令初始化环境变量。 source 客户端安装目录/bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。
MRS的Storm集群提交任务时如何指定日志路径? 问: MRS的Storm集群提交任务时如何指定日志路径? 答: 用户可以根据自己的需求,修改MRS的流式Core节点上的“/opt/Bigdata/MRS_XXX /1_XX _Supervisor/etc/worker.xml
如何在Spark命令中指定参数值 问题 如果用户不希望在界面上或配置文件设置参数值,如何在Spark命令中指定参数值? 回答 Spark的配置项,不仅可以在配置文件中设置,也可以在命令中指定参数值。 在Spark客户端,应用执行命令添加如下内容设置参数值,命令执行完成后立即生效。
如何在Spark命令中指定参数值 问题 如果用户不希望在界面上或配置文件设置参数值,如何在Spark命令中指定参数值? 回答 Spark的配置项,不仅可以在配置文件中设置,也可以在命令中指定参数值。 在Spark客户端,应用执行命令添加如下内容设置参数值,命令执行完成后立即生效。
spark-submit 用于提交Spark应用到MRS集群中运行,并返回运行结果。需要指定class、master、jar包以及入参。 示例:执行jar包中的GroupByTest例子,入参为4个,指定集群运行模式是yarn-client。 spark-submit --class org
Path dst) 通过该接口可为指定的HDFS文件重命名,其中“src”和“dst”均为文件的完整路径。 public abstract boolean delete(Path f, boolean recursive) 通过该接口可删除指定的HDFS文件,其中“f”为需要删除
Path dst) 通过该接口可为指定的HDFS文件重命名,其“src”和“dst”均为文件的完整路径。 public abstract boolean delete(Path f, boolean recursive) 通过该接口可删除指定的HDFS文件,其中“f”为需要删除
核心接口,指定MapReduce作业的Mapper类,默认为空。也可以在“mapred-site.xml”中配置“mapreduce.job.map.class”项。 setReducerClass(Class<extends Reducer> cls) 核心接口,指定MapRe
src, Path dst) 通过该接口可为指定的HDFS文件重命名,其中src和dst均为文件的完整路径。 public abstract boolean delete(Path f, boolean recursive) 通过该接口可删除指定的HDFS文件,其中f为需要删除文件的完
src, Path dst) 通过该接口可为指定的HDFS文件重命名,其中src和dst均为文件的完整路径。 public abstract boolean delete(Path f, boolean recursive) 通过该接口可删除指定的HDFS文件,其中f为需要删除文件的完
核心接口,指定MapReduce作业的Mapper类,默认为空。也可以在“mapred-site.xml”中配置“mapreduce.job.map.class”项。 setReducerClass(Class<extends Reducer> cls) 核心接口,指定MapRe
src, Path dst) 通过该接口可为指定的HDFS文件重命名,其中src和dst均为文件的完整路径。 public abstract boolean delete(Path f, boolean recursive) 通过该接口可删除指定的HDFS文件,其中f为需要删除文件的完
核心接口,指定MapReduce作业的Mapper类,默认为空。也可以在“mapred-site.xml”中配置“mapreduce.job.map.class”项。 setReducerClass(Class<extends Reducer> cls) 核心接口,指定MapRe
核心接口,指定MapReduce作业的Mapper类,默认为空。也可以在“mapred-site.xml”中配置“mapreduce.job.map.class”项。 setReducerClass(Class<extends Reducer> cls) 核心接口,指定MapRe
spark-submit 用于提交Spark应用到Spark集群中运行,返回运行结果。需要指定class、master、jar包以及入参。 示例:执行jar包中的GroupByTest例子,入参为4个,指定集群运行模式是local单核运行。 ./bin/spark-submit --class