检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HDFS网络不稳定场景调优 优化HDFS NameNode RPC的服务质量 优化HDFS DataNode RPC的服务质量 执行HDFS文件并发操作命令 使用LZC压缩算法存储HDFS文件 父主题: 使用HDFS
添加”。 引用符号 表示数据库的SQL中保留关键字的定界符,不同类型数据库定义的定界符不完全相同。 文件服务器连接 文件服务器连接包含FTP连接和SFTP连接,是Loader与文件服务器进行数据交换的通道,配置参数如表4所示。 表4 ftp-connector或sftp-connector配置
删除“/sys/fs/cgroup/cpuset/hadoop-yarn/”路径下container文件夹(如果存在)。 删除“/sys/fs/cgroup/cpuset/hadoop-yarn/”路径下cpuset.cpus文件中设置的所有CPU。 操作步骤 登录Manager系统。选择“集群 > 服务
for Application default configuration. 回答 打开项目中“ .idea\workspace.xml”文件。 找到标签“<component name="PropertiesComponent"> ” ,在内容中添加“ <property name="dynamic
以root用户登录HDFS客户端安装节点。 执行以下命令编辑文件。 vim /opt/client/HDFS/component_env 调大参数“ export GC_OPTS_HDFS”的值,例如修改为“Xmx512m”。 保存文件。 执行以下命令重新加载环境变量。 source bigdata_env
将目标Hive集群的core-site.xml,hdfs-site.xml文件复制分发到Presto集群上,放置在omm用户有读权限的路径下(如/home/omm),将文件属主改为omm:wheel,文件权限改为750。 进入Presto服务配置页面: MRS 1.8.10及之前版本,登录MRS
在目标健康检查报告所在行,单击“下载”,下载报告文件。 配置健康检查报告保存数: 在不同时间、不同使用场景下,MRS集群、服务和主机产生的健康检查报告结果不完全相同。如果需要保存更多的报告用于比较时,可以在MRS Manager修改健康检查报告保存的文件数。健康检查报告保存的文件数不区分集群、服务或主机
Spark SQL join优化 优化数据倾斜场景下的Spark SQL性能 优化小文件场景下的Spark SQL性能 Spark INSERT SELECT语句调优 动态分区插入场景内存优化 小文件优化 聚合算法优化 Datasource表优化 合并CBO优化 多级嵌套子查询以及混合Join的SQL调优
HDFS网络不稳定场景调优 优化HDFS NameNode RPC的服务质量 优化HDFS DataNode RPC的服务质量 执行HDFS文件并发操作命令 使用LZC压缩算法存储HDFS文件 使用HDFS异步删除特性 父主题: 使用HDFS
在样例代码的“springboot/kafka-examples”目录下找到pom文件,在此文件同级目录使用maven install工具编译SpringBoot样例,此时会生成一个target文件夹,在target文件夹中得到“huawei-spring-boot-kafka-examples-*
新增包含如下内容的文件并上传到hdfs的"/home/data"目录下。 Miranda,32 Karlie,23 Candice,27 确保其对启动JDBCServer的用户有读写权限。 确保$SPARK_HOME/conf下有"hive-site.xml文件,且根据实际集群情况配置所需要的参数。
优化数据倾斜场景下的Spark SQL性能 优化小文件场景下的Spark SQL性能 Spark INSERT SELECT语句调优 配置多并发客户端连接JDBCServer 配置SparkSQL的分块个数 Spark动态分区插入场景内存优化 小文件优化 聚合算法优化 Datasource表优化
{key}={value})追加新的参数。 克隆作业时,逗号+空格的格式只能在两个参数间存在;若存在于参数中,作业可能执行失败。 在原有参数后继续添加参数,逗号后需要有空格,否则作业可能执行失败。 克隆的作业返回参数不含有fs.obs.access.key、fs.obs.secret.key,若需要fs
张表同时进行读写操作,否则会出现查询结果不准确,甚至任务失败的情况。 分桶表不支持insert into 分桶表(bucket table)不支持insert into,仅支持insert overwrite,否则会导致文件个数与桶数不一致。 使用WebHCat的部分REST接口的前置条件
业务延迟:主机磁盘IO利用率过高时,可能会导致业务进程运行处理缓慢、业务延迟。 业务失败:磁盘IO利用率过高时,可能会导致业务处理缓慢、超时、失败,可能会导致作业运行失败。 可能原因 告警阈值配置或者平滑次数配置不合理。 磁盘配置无法满足业务需求,磁盘IO性能达到上限。或业务处于高峰期,导致短期内磁盘IO利用率达到上限。
业务延迟:主机CPU使用率过高时,可能会导致业务进程运行处理缓慢、业务延迟。 业务失败:主机CPU使用率过高时,可能会导致业务处理缓慢、超时、失败,可能会导致作业运行失败。 可能原因 告警阈值配置或者平滑次数配置不合理。 CPU配置无法满足业务需求,CPU使用率达到上限。或业务处于高峰期,导致短期内CPU使用率达到上限。
lang.String directory) 入参directory为HDFS目录,该方法创建一个输入流检测可兼容Hadoop文件系统的新文件,并且读取为文本文件。 void start() 启动Spark Streaming计算。 void awaitTermination() 当前进程等待终止,如Ctrl+C等。
会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip”。默认最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 表1 Broker日志列表 日志类型 日志文件名 描述 运行日志 server
执行MRS集群健康检查 集群健康检查包含检查对象的“健康状态”、相关的告警和自定义的监控指标等三项检查项,但检查结果不能等同于界面上显示的“健康状态”。检查范围包含Manager、服务级别和主机级别的健康检查: Manager关注集群统一管理平台是否提供正常管理功能。 服务级别关注组件是否能够提供正常的服务。
通过执行“sqoop2-shell”脚本,带一个文本文件名作为参数,该文件中按行存储了多条命令,工具会按顺序执行该文件中的所有命令。使用这种方式有个限制条件,这个sh脚本必须放到当前用户的家目录下,如:/root/batchCommand.sh。 通过读取配置文件进行认证: ./sqoop2-shell