内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 大数据基础HDFS入门

    DataNode:分布在廉价的计算机上,用于存储Block块文件。 HDFS编程练习 1. 利用 Hadoop 提供的 Shell 命令完成 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;   从HDFS中下载指定文件,如果本地文件与要下

    作者: 俺想吃蜂蜜
    发表时间: 2022-04-13 00:26:53
    670
    0
  • hdfs dfs 常用命令

    hdfs dfs命令是用来操作HDFS中的文件的,其包含如下参数: 点击放大 其中比较常用的命令有: ls 使用方法:hdfs dfs -ls <args> 如果是文件,则按照如下格式返回文件信息: 权限 <副本数> 用户ID 组ID 文件大小 修改日期

    作者: nia nia
    发表时间: 2022-05-23 02:25:03
    853
    0
  • CDM迁移HDFS数据上云(OBS)详解

    在这里选择连接到的服务,我们以迁移Hadoop中Apache HDFS数据(源端)到对象存储中对象存储服务(OBS)(目的端)为例。 步骤五(创建源端连接器): 步骤四中选择【Apache HDFS】,点击【下一步】: 输

    作者: 天使在人间
    发表时间: 2019-06-23 08:24:25
    3616
    0
  • Sqoop Export HDFS

    Sqoop Export HDFSSqoop Export 应用场景——直接导出直接导出sqoop export \--connect'jdbc:mysql://192.168.x.200/dwqdb_test?useUnicode=true&characterEncodig=utf-8'

    作者: Smy1121
    发表时间: 2019-06-21 07:00:57
    1761
    0
  • HDFS基本原理

    ZKFC。它负责监控NameNode的状态,并及时把状态写入Zookeeper。ZKFC也有选择谁作为Active NameNode的权利。ZK ClusterZooKeeper是一个协调服务,帮助ZKFC执行主NameNode的选举。三、写流程客户端要向HDFS写数据,首先要跟

    作者: suwei
    1897
    0
  • HDFS常见的Shell操作

    HDFS常见的Shell操作 HDFS常见的Shell操作 写在前面 基本语法 HDFS命令大全 常用命令实操 准备工作 上传文件 下载文件 HDFS直接操作 写在前面 Hadoop版本:Hadoop-3.x Linux版本:CentOS7.5 HDFS的Shell操作是入门Hadoop开发的学习重点

    作者: 7&
    发表时间: 2023-03-18 00:33:29
    518
    0
  • Apache Hadoop HDFS 架构

    里。 HDFS 读/写架构: 下面我们来谈谈数据读写操作是如何在HDFS上进行的。HDFS 遵循一次写入 – 多次读取的理念。因此,您无法编辑已存储在 HDFS 中的文件。但是,您可以通过重新打开文件来附加新数据。 HDFS 写入架构: 假设 HDFS 客户端想要写入大小为

    作者: Donglian Lin
    发表时间: 2021-08-10 00:37:58
    1842
    0
  • HDFS系列(3) | HDFS的Shell常用命令大全

    Local从本地文件系统中拷贝文件到HDFS路径去9-copyToLocal从HDFS拷贝到本地10-cp从HDFS的一个路径拷贝到HDFS的另一个路径11-mv在HDFS目录中移动文件12-get等同于copyToLocal,就是从HDFS下载文件到本地13-getmerge合

    作者: 不温卜火
    发表时间: 2020-12-02 15:03:27
    4063
    0
  • 跨集群访问hdfs

    一、问题现象DWS访问集群内的普通表速率正常,访问hdfs集群的外表速率慢,慢的程度limit 1时间min起步,最后也能出结果,就是慢,无报错;二、问题排查1、检查hdfs集群访问;这里主要检查DWS集群节点访问HDFS集群是否互通;2、外部server配置正常;不光检查DWS集群,实际也要看HDFS文件等;3、外

    作者: 你讲道理的说
    81
    0
  • tbase配置hdfs备份

    start-dfs.sh #新建备份目录 hdfs dfs -mkdir /backup hdfs dfs -chown tbase:tbase /backup hdfs dfs -ls / 2.3 确认目录情况 [hadoop@db01 hadoop]$ hdfs dfs -ls / Found

    作者: snowofsummer
    发表时间: 2022-01-20 05:42:10
    933
    0
  • 万台规模 HDFS 集群升级 HDFS 3.x 有哪些坑?

    性能。HDFS RBF替代viewfs,简化HDFS客户端配置更新流程,解决线上更新众多HDFS客户端配置的痛点问题。 HDFS EC应用冷数据存储,降低存储成本。 基于以上痛点问题与收益,我们决定将离线数仓HDFS集群升级到 HDFS 3.x版本。 二、 HDFS 升级版本选择

    作者: 数据社
    发表时间: 2022-09-24 17:27:41
    223
    0
  • Python 读hdfs写hudi

    getOrCreate() parquet_df = spark.read.parquet("hdfs://hacluster/tmp/sandbox/output.parquet") hudi_table_path = "hdfs://hacluster/tmp/sandbox/hudi0829" parquet_df

    作者: Ivan-agatha
    92
    2
  • 跨集群访问HDFS报错

    跨集群访问HDFS的配置,在HD的环境中需要部署elk吗?在FI界面对接的时候发现参考文考名是elk-site.xml,没有部署elk的环境没找到这个文件

    作者: 逍丶遥
    1248
    5
  • 大数据之HDFS原理

    写完的数据,将返回确认信息给HDFS Client。 6. 所有数据确认完成后,业务调用HDFS Client关闭文件。 7. 业务调用close, flush后HDFS Client联系NameNode,确认数据写完成,NameNode持久化元数据。 HDFS不适合大量小文件、随机写入

    作者: 星辰大海眺望远方
    发表时间: 2019-01-14 13:25:06
    1995
    0
  • HDFS容量规划

    k副本数需要的最小磁盘数10查看HDFS容量状态NameNode信息登录FusionInsight Manager,选择“集群 > 服务 > HDFS > NameNode(主)”,单击“Overview”,查看“Summary”显示的当前HDFS中文件对象、文件数量、目录数量和

    作者: FI小粉丝
    4483
    0
  • 监控

    监控 节点监控 性能监控 数据库监控 实时查询 历史查询 实例监控 负载监控 父主题: 数据库监控

  • 监控

    监控 节点监控 性能监控 数据库监控 实时查询 历史查询 实例监控 负载监控 父主题: 数据库监控

  • GaussDB跨集群访问HDFS

    是需要单独的GDS服务器,还有数据的导出、导入过程,方案较繁琐。听说SDR也可以,但是收费。2)在GaussDB中通过创建HDFS外表,可以直接访问HDFS的数据,可以满足需求。但是这种方案的效率怎么样?在别的局点有应用过吗?对原有的大数据集群有多大的影响(例如会不会拖垮大数据集

    作者: zl321
    879
    6
  • HDFS小文件离线分析

    章主要是讲解通过fsimage离线分析整个hdfs目录小文件分布情况,这种分析能最大程度减少对NameNode的压力。 fsImage介绍 fsimage包含最新的元数据检查点,在HDFS启动时加载fsimage的信息,包含了整个HDFS文件系统的所有目录和文件的信息,NameN

    作者: 阿帕车
    发表时间: 2022-01-03 09:06:11
    1351
    0
  • HDFS Shell 命令实操

    8 查看HDFS文件内容(3) 1.9 下载HDFS文件(1) 1.10 合并下载HDFS文件(2) 1.11 拷贝HDFS文件 1.12 追加数据到HDFS文件中 1.13 查看HDFS磁盘空间 1.14 查看HDFS文件使用的空间量 1.15 HDFS数据移动操作或重命名文件的名称

    作者: 兮动人
    发表时间: 2021-09-27 02:12:58
    1439
    0