检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
行连接,才能导出完整文件。在使用gsql执行脚本文件导入时,同样需要管理员权限,以便添加用户和组,以及创建数据库。 由于GaussDB(DWS)数据库所有视图的定义都默认带有表名或别名的前缀(即tab.col的形式),因此可能与原始定义不符,导致在极少的场景下会发生重建视图字段对
GaussDB(DWS)不提供任何预定义的Ispell类型词典或词典文件。dict文件和affix文件支持多种开源词典格式,包括Ispell、MySpell和Hunspell等。 操作步骤 获取词典定义文件和词缀文件。 用户可以使用开源词典,直接获取的开源词典后缀名可能为.aff和
有什么区别? OBS与GDS外表支持格式文件区别如下: OBS导入支持ORC、TEXT、JSON、CSV、CARBONDATA、PARQUET文件格式,导出支持ORC、CSV、TEXT文件格式,缺省值为TEXT。 GDS导入导出支持的文件格式:TEXT、CSV和FIXED,缺省值为TEXT。
GaussDB(DWS)不提供任何预定义的Ispell类型词典或词典文件。dict文件和affix文件支持多种开源词典格式,包括Ispell、MySpell和Hunspell等。 操作步骤 获取词典定义文件和词缀文件。 用户可以使用开源词典,直接获取的开源词典后缀名可能为.aff和
为确保安全性,DSC会对其创建的文件和文件夹进行访问控制。要访问这些文件和文件夹,用户必须拥有所需权限。例如,用户需要权限600/400访问目标文件和日志文件,需要权限700访问目标文件夹和日志文件夹。此外,该工具不在日志中保存敏感数据,以确保数据安全。 --input-folder中指定的文件或文件夹
-W password,此处密码需要用户自定义。 -f 将导出文件发送至指定目录文件夹。如果这里省略,则使用标准输出。 -f /home//backup/MPPDB_schema_backup -p 指定服务器所监听的TCP端口或本地Unix域套接字后缀,以确保连接。 -p 8000
码。 -W password,此处密码需要用户自定义。 -f 将导出文件发送至指定目录文件夹。如果这里省略,则使用标准输出。 -f /home//backup/MPPDB_backup.tar -p 指定服务器所监听的TCP端口或本地Unix域套接字后缀,以确保连接。 -p 8000
将导入数据拆分为多个文件 导入大数据量的数据时,通常需要较长的时间及耗费较多的计算资源。 从OBS上导入数据时,如下方法可以提升导入性能:将数据文件存储到OBS前,尽可能均匀地将文件切分成多个,文件的数量为DN的整数倍更适合。 在导入前后验证数据文件 从OBS导入数据时,首先将您的文件上传到O
0x00.”。 原因分析 业务数据文件从Oracle导入,文件编码为utf-8。该报错还会提示行数,由于文件特别大,vim命令打不开文件,于是用sed命令把报错行数提出来,再用vim命令打开,发现并没有什么异常。用split命令按行数切割后,部分文件也可以导入。 经分析GaussD
外表语句中指定OBS文件编码格式是UTF-8,但是导入数据时报错,如何处理? 原因分析 存储在OBS中的源文件含有非UTF-8的数据。 处理方法 排查报错的源文件,检查是否含有非UTF-8的数据,例如中文字符。如果源文件中含有非UTF-8的数据,请先将源文件转换成UTF-8的格式
为其他任意格式后缀的文件。 根据导入数据原理,当数据源文件的数据量较大时,将数据文件存储到OBS前,尽可能均匀地将文件切分成多个,文件数量为DataNode的整数倍时,导入性能更好。 假设您已将3个CSV数据文件存储在OBS上,其原始数据分别如下: 数据文件“product_info
t (1 row) pg_reload_conf() 描述:服务器进程重新装载配置文件。 返回值类型:boolean 备注:pg_reload_conf给服务器发送一个SIGHUP信号,导致所有服务器进程重新装载配置文件。 示例: 1 2 3 4 5 SELECT pg_reload_conf();
SSL证书二进制jks格式文件。 证书密码 否 SSL证书加密密码。 Host配置 否 MRS-Kafka配置参数,当用户使用安全模式连接MRS-Kafka时,需要配置Gds-Kafka所在虚拟机的hosts文件,因此需要用户上传需要修改的host文件,该文件格式仅支持txt,文件内容如下: 192
解决办法:COPY数据文件被破坏,请检查文件。 GAUSS-01233: "unrecognized critical flags in COPY file header" SQLSTATE: 22P04 错误原因:COPY数据文件头无法识别。 解决办法:COPY数据文件被破坏,请检查文件。 GAUSS-01234:
图17 作业运行状态 步骤七:通过Kafka客户端生产和修改消息 参见ECS文档创建一台ECS,具体创建步骤此处不再赘述。创建时,确保ECS的区域、虚拟私有云保持与Kafka一致。 安装JDK。 登录ECS,进入到/usr/local,下载JDK包。 1 2 cd /usr/local
t (1 row) pg_reload_conf() 描述:服务器进程重新装载配置文件。 返回值类型:boolean 备注:pg_reload_conf给服务器发送一个SIGHUP信号,导致所有服务器进程重新装载配置文件。 示例: 1 2 3 4 5 SELECT pg_reload_conf();
日志概述 日志文件是DSC所有操作和状态的存储库。支持以下日志文件: SQL迁移日志 DSC.log:SQL迁移的所有活动。 DSCError.log:SQL迁移错误。 successRead.log:SQL迁移中对输入文件的成功读次数。 successWrite.log:SQL迁移中对输入文件的成功写次数。
header(仅支持CSV,FIXED格式):确认数据文件是否包含标题行。 delimiter:确认数据文件中,字段间的分隔符。例如,以英文逗号分隔的。 encoding:数据源文件的数据编码格式。例如,为UTF-8。 eol:确认数据文件中,行间的换行符。例如,默认的换行符,如0x0D
使用root账户登录已创建好的ECS,执行以下命令创建数据源文件目录。 mkdir -p /input_data 使用文件传输工具,将以上数据文档上传到ECS的/input_data目录下。 使用GDS导入数据源 使用root账户登录ECS,使用文件传输工具将7下载好的工具包上传到/opt目录下。
如果没有-W选项,并且不是数据库管理员,会提示用户输入密码。 -W password -f 将导出文件发送至指定目录文件夹。如果这里省略,则使用标准输出。 -f /home//backup/MPPDB_table_backup -p 指定服务器所监听的TCP端口或本地Unix域套接字后缀,以确保连接。 -p 8000