检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Loader作业导入大量数据至HDFS时报错 问题 大量数据写入HDFS时偶现“NotReplicatedYet Exception: Not replicated yet”错误。 图1 报错信息 回答 以下原因可能造成该报错: HDFS客户端向NameNode发送新Block申
修改完成后,单击“保存”。 单击“概览”页签,选择“ 更多 > 重启实例”或者“ 更多 > 滚动重启实例”。 父主题: ClickHouse数据导入
SUCCESS”,生成target目录,生成Jar包在target目录中。 导入依赖的Jar包。 以root用户,登录IoTDBServer所在的节点,执行su - omm命令切换到omm用户,将1生成的Jar包导入到目录“$BIGDATA_HOME/FusionInsight_IoT
echo "installing phoenix jars to hbase successfully..." 请使用txt文本格式复制导入如上脚本,以避免导入格式错误问题。 <PHOENIX_HBASE_VERSION>:当前使用的phoenix版本。例如MRS 3.x之前可使用的phoenix版本为4
Load的最大导入文件大小,默认值为10G,单位为MB。 如果原始文件超过该值,则需要适当调整该参数值。 由于Stream Load是由BE进行导入并分发数据,建议导入数据量在1G到10G之间。由于默认最大Stream Load的导入数据量为10G,所以如果要导入超过10G的文件
配置ClickHouse对接普通模式Kafka 本章节适用于MRS 3.3.0-LTS及之后版本。 操作场景 本章节主要介绍ClickHouse连接普通模式的Kafka,消费Kafka的数据。 前提条件 已创建Kafka集群,且为普通模式(关闭Kerberos认证)。 已创建Cl
SUCCESS”,生成target目录,生成Jar包在target目录中。 导入依赖的Jar包。 以root用户,登录IoTDBServer所在的节点,执行su - omm命令切换到omm用户,将1生成的Jar包导入到目录“$BIGDATA_HOME/FusionInsight_IoT
配置ClickHouse通过用户密码对接Kafka 本章节适用于MRS 3.3.0-LTS及之后版本。 操作场景 本章节主要介绍ClickHouse通过用户名和密码的方式连接Kafka,消费Kafka的数据。 前提条件 已创建Kafka集群,且为安全模式(开启Kerberos认证)。
SQLServer全数据类型导入HDFS数据跳过 问题 SQLServer全数据类型导入HDFS,数据全部跳过。 答案 数据中包含SQLServer中特有的Timestamp类型,该数据类型与时间和日期无关,需要替换为Datetime类型。 父主题: Loader常见问题
数据,只能一次性写入数据。 ClickHouse删除HDFS引擎表以后对HDFS上的数据文件没有影响。 父主题: ClickHouse数据导入
离线数据加载:通过Broker Load将ORC格式的Hive数据导入Doris 应用场景 通过Broker Load将ORC格式的Hive表数据导入到Doris。 方案架构 离线数据可以从数据湖加载,也可以直接加载本地文件。从数据湖加载可以使用工具CDM,在没有CDM工具时,可
在集群内节点使用LoadIncrementalHFiles批量导入数据,报错权限不足 问题 在普通集群中手动创建Linux用户,并使用集群内DataNode节点执行批量导入时,为什么LoadIncrementalHFiles工具执行失败报“Permission denied”的异常?
快速使用Flume采集节点日志 Flume支持将采集的日志信息导入到Kafka。 前提条件 已创建开启Kerberos认证的包含Flume、Kafka等组件的流式集群。可参考购买自定义集群。 已配置网络,使日志生成节点与流集群互通。 使用Flume客户端 普通集群不需要执行2-6。
传到OBS,并在MRS管理控制台“文件管理”将文件从OBS导入HDFS,具体请参考导入导出数据。 如果集群启用了Kerberos认证,则需要在工作环境准备CSV文件,然后可以使用开源HDFS命令,参考5将文件从工作环境导入HDFS,并设置Spark组件用户在HDFS中对文件有读取和执行的权限。
//失效时间 导入证书文件。 导入新的CA证书文件。 请联系运维人员申请或生成新的CA证书文件并导入。手动清除该告警信息,查看系统在定时检查时是否会再次产生此告警。 是,执行8。 否,处理完毕。 导入新的HA证书文件。 请参考更换HA证书章节,申请或生成新的HA证书文件并导入。手动清除
在集群内节点使用LoadIncrementalHFiles批量导入数据,报错权限不足 问题 在普通集群中手动创建Linux用户,并使用集群内DataNode节点执行批量导入时,为什么LoadIncrementalHFiles工具执行失败报“Permission denied”的异常?
执行以下命令配置环境变量。 source bigdata_env 首次登录IoTDB客户端前需执行以下步骤生成SSL客户端证书: 执行以下命令生成客户端SSL证书: keytool -noprompt -import -alias myservercert -file ca.crt -keystore
ppk格式。 是,执行10。 否,执行6。 运行PuTTY。 在“Actions”区域,单击“Load”,并导入创建弹性云服务器时使用的密钥对的私钥文件。 导入时注意确保导入的格式要求为“All files (*.*)”。 单击“Save private key”。 保存转化后的私钥到本地。例如:kp-123
文件格式 文件导出类型: “TEXT_FILE”:导入文本文件并保存为文本文件。 “SEQUENCE_FILE”:导入文本文件并保存在“sequence file”文件格式。 “BINARY_FILE”:以二进制流的方式导入文件,可以导入任何格式的文件。 TEXT_FILE 压缩格式
文件格式 文件导出类型: “TEXT_FILE”:导入文本文件并保存为文本文件。 “SEQUENCE_FILE”:导入文本文件并保存在“sequence file”文件格式。 “BINARY_FILE”:以二进制流的方式导入文件,可以导入任何格式的文件。 TEXT_FILE 压缩格式