检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
客户端配置参数需要与服务端保持一致 当集群的Hive、YARN、HDFS服务端配置参数发生变化时,客户端程序对应的参数会被改变,用户需要重新审视在配置参数变更之前提交到HiveServer的配置参数是否和服务端配置参数一致,如果不一致,需要用户在客户端重新调整并提交到HiveServer。例如下
meNode是否失败。 以root用户登录备NameNode节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行su - omm命令切换到omm用户。 使用如下命令查看备NameNode是否能将文件推送到主NameNode上。 tmpFile=/tmp/tmp_test_$(date
saveAsTextFile(path: String): Unit 把dataset写到一个text file、HDFS或者HDFS支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 saveAsSequenceFile(path: String, codec: Option[Class[_
CompressionCodec> codec) 把dataset写到一个text file、hdfs、或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 java.util.Map<K,Object> countByKey() 对每个key出现的次数做统计。
saveAsTextFile(path: String): Unit 把dataset写到一个text file、HDFS或者HDFS支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 saveAsSequenceFile(path: String, codec: Option[Class[_
堆栈信息日志 threadDump-<DATE>.log 实例重启或实例停止时会打印。 其他 hetu-updateKrb5.log 部署Hive集群更换域后,Hive数据源配置自动刷新时打印的日志。 hetu_utils.log 启动时预处理脚本调用工具类上传文件到HDFS时打印的日志。 日志级别
saveAsTextFile(path: String): Unit 把dataset写到一个text file、HDFS或者HDFS支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 saveAsSequenceFile(path: String, codec: Option[Class[_
CompressionCodec> codec) 把dataset写到一个text file、hdfs、或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 java.util.Map<K,Object> countByKey() 对每个key出现的次数做统计。
saveAsTextFile(path: String): Unit 把dataset写到一个text file、HDFS或者HDFS支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 saveAsSequenceFile(path: String, codec: Option[Class[_
止该任务。中止后,任务将不再继续执行。 主页底部任务栏显示FusionInsight Manager的语言选项和当前集群时间及时区信息,可切换系统语言。 图4 主页底部任务栏 服务状态预览区: 主页界面的左侧展示集群已安装服务组件列表信息,可查看当前集群已安装各服务的状态和告警情况。
CompressionCodec> codec) 把dataset写到一个text file、hdfs、或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。 java.util.Map<K,Object> countByKey() 对每个key出现的次数做统计。
其中“X”为随机生成的数字,请根据实际情况修改。同时文件需要以Flume客户端安装用户身份保存,例如root用户。 登录安装Flume客户端节点,切换到客户端安装目录,执行以下命令修改文件: vi conf/jaas.conf 修改参数“keyTab”定义的用户认证文件完整路径即4中保存
发写请求,避免系统处理能力浪费。 离散流 Spark Streaming提供的抽象概念。表示一个连续的数据流,是从数据源获取或者通过输入流转换生成的数据流。从本质上说,一个DStream表示一系列连续的RDD。 堆内存(Heap Memory) 堆是JVM运行时数据区域,所有类实
根据业务情况,准备好客户端,登录安装客户端的节点。 请根据客户端所在位置,参考使用MRS客户端章节,登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin
catalogs; 执行以下命令查询catalog下面的库: show databases from jdbc_mysql; 执行以下命令切换到Catalog下,再进入到数据库中: switch jdbc_mysql; use default; 查询Catalog中某个库的所有表:
String 参数解释: 作业类型。 约束限制: 不涉及 取值范围: MapReduce SparkSubmit SparkPython:该类型作业将转换为SparkSubmit类型提交,MRS控制台界面的作业类型展示为SparkSubmit,通过接口查询作业列表信息时作业类型请选择SparkSubmit。
解决Manager跨越0点查询时,监控指标显示异常的问题。 解决Manager页面内核空间占用CPU百分比数值错误问题。 解决Manager页面主机线管监控页面切换到分布图后在切换时间段查看图标,图标的默认区间取值错误的问题。 解决主OMS的Gaussdb的进程占用内存较大的问题。 解决Manager组件自定
根据业务情况,准备好客户端,登录安装客户端的节点。 请根据客户端所在位置,参考使用MRS客户端章节,登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin
普通模式不涉及) 如需在集群间拷贝数据,拷贝数据的集群双方都需要启用集群间拷贝数据功能。 操作步骤 登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执
“IP”地址。 记录待安装客户端的节点IP地址及主Master节点IP地址(主OMS节点)。 以root用户登录主OMS节点,执行以下命令切换至omm用户。 sudo su - omm 执行以下命令,将客户端安装包复制到指定节点。 scp -p /tmp/MRS-client/MRS_Services_Client