检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录,例如“/hbase”或“/user/hbase/backup”。 “最大备份数”:填写备份目录中可保留的备份文件集数量。 “CIFS”:表示将备份文件通过CIFS协议保存在NAS中。 选择此参数值,还需要配置以下参数:
html。 代码样例 下面代码片段仅为演示,具体代码请参见获取样例代码解压目录中“hdfs-c-example/hdfs_test.c”文件。 设置HDFS NameNode参数,建立HDFS文件系统连接。 hdfsFS fs = hdfsConnect("default", 0);
明章节。 操作步骤 准备一个具有对应组件操作权限的用户。 例如:使用admin用户登录FusionInsight Manager,选择“系统 > 用户 > 添加用户”,创建一个“人机”用户“hueuser”,并加入“hive”、“hadoop”、“supergroup”组和“Sy
明章节。 操作步骤 准备一个具有对应组件操作权限的用户。 例如:使用admin用户登录FusionInsight Manager,选择“系统 > 用户 > 添加用户”,创建一个“人机”用户“hueuser”,并加入“hive”、“hadoop”、“supergroup”组和“Sy
HBase数据读写样例程序 HBase样例程序开发思路 初始化HBase配置 创建HBase客户端连接 创建HBase表 创建HBase表Region 向HBase表中插入数据 创建HBase表二级索引 基于二级索引查询HBase表数据 修改HBase表 使用Get API读取HBase表数据
Loader常见问题 IE 10&IE 11浏览器无法保存数据 将Oracle数据库中的数据导入HDFS时各连接器的区别 父主题: 使用Loader
MRS是否支持对DLI服务的业务表进行读写操作? OBS是否支持ListObjectsV2协议? MRS集群内的节点中可以部署爬虫服务吗? MRS服务是否支持安全删除的能力? 如何使用PySpark连接MRS Spark? HBase同步数据到CSS为什么没有映射字段? MRS集群是否支持对接外部KDC?
Next”,在下一个页面单击“Browse”,显示“浏览文件夹”对话框。 选择样例工程文件夹“hdfs-examples”,单击“确定”。 在“Import”窗口单击“Finish”。 设置Eclipse的文本文件编码格式,解决乱码显示问题。 在Eclipse的菜单栏中,选择“Window
eta表中存在该表则返回true,否则返回false。 HTableDescriptor[] listTables(String regex) 查看匹配指定正则表达式格式的用户表。该方法还有另外两个重载的方法,一个入参类型为Pattern;一个入参为空,默认查看所有用户表。 HTableDescriptor[]
eta表中存在该表则返回true,否则返回false。 HTableDescriptor[] listTables(String regex) 查看匹配指定正则表达式格式的用户表。该方法还有另外两个重载的方法,一个入参类型为Pattern;一个入参为空,默认查看所有用户表。 HTableDescriptor[]
检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下的“hosts”文件中的内容到客户端所在节点的hosts文件中,确保本地机器能与集群各主机在网络上互通。
”。 是,执行5。 否,执行7。 以root用户登录客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行如下命令: cd 客户端安装目录 source bigdata_env 如为安全模式集群,请执行kinit hbase 登录HMaster WebUI,在导航栏选择“Procedure
lickhouse-example.properties”,按需修改表1的参数。 (可选)如果使用机机用户认证,需要参考准备MRS应用开发用户下载该机机用户的user.keytab与krb5.conf认证凭据文件,并将文件上传到样例工程的conf目录下。 父主题: 准备ClickHouse应用开发环境
Doris JDBC接口调用样例程序 Doris JDBC接口样例程序开发思路 创建Doris连接 创建Doris数据库 创建Doris表 向Doris表中插入数据 查询Doris表数据 删除Doris表 父主题: Doris开发指南(安全模式)
使用Kafka Kafka数据消费概述 Kafka用户权限管理 Kafka客户端使用实践 快速使用Kafka生产消费数据 创建Kafka Topic 在Kafka Topic中接入消息 管理Kafka Topic Kafka企业级能力增强 Kafka性能调优 Kafka运维管理 Kafka常见问题
-setrep -w 文件副本数 /tmp/hadoop-yarn/staging/ 默认文件副本数通过如下方式获取: 登录Manager页面,选择“集群 > 服务 > HDFS > 配置 > 全部配置”,搜索dfs.replication参数,该参数的值即是默认文件副本数。 然后等待5分钟,检查告警是否清除。
是,执行3。 否,执行2。 根据实际服务的使用情况修改告警阈值。 选择“集群 > 待操作集群的名称 > 服务 > DBService”,在“概览”页面查看“数据目录磁盘空间使用率”图表,检查数据目录磁盘空间使用率是否低于设置的阈值。 是,执行4。 否,执行5。 图1 数据目录磁盘空间使用率
thriftServer.useHdfsCollect 是否将结果数据保存到HDFS中而不是内存中。 优点:由于查询结果保存在hdfs端,因此基本不会造成JDBCServer的OOM。 缺点:速度慢。 true:保存至HDFS中。 false:不使用该功能。 须知: spark.sql.bigdata
UI上,会发现某些executors的GC时间明显比其他executors高,或者所有的executors都表现出高GC时间。 处理步骤 登录Manager页面,选择“集群 > 服务 > Spark2x > 配置 > 全部配置”,在搜索框搜索“spark.executor.memory”,通过参数“spark
splits”参数可用于从服务端限定Hive任务的最大map数,避免HiveSever服务过载而引发的性能问题。 操作步骤 登录FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置”。 选择“MetaStore(角色) > 自定义”,对参数文件“hivemetastore-site