检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
号,如果创建的数据库名和账号名不满足数据库命名规则(参见表2)和账号命名规则(参见表2),例如包含中文或不支持的特殊字符,那么该数据库和账号不支持RDS界面或API的数据库管理和账号管理功能。 如果源库的数据库名和账号名不满足数据库命名规则(参见表2)和账号命名规则(参见表2),迁移到目标库RDS
查看多版本备份数据 功能描述 在DLI数据多版本功能开启后,您可以通过SHOW HISTORY命令查看表的备份数据。开启和关闭多版本语法请参考开启或关闭数据多版本。 DLI数据多版本功能当前仅支持通过Hive语法创建的OBS表,具体建表SQL语法可以参考使用Hive语法创建OBS表。
datastore字段数据结构说明 名称 是否必选 参数类型 说明 type 是 String 参数解释: 数据库引擎。 约束限制: 不涉及。 取值范围: GaussDB。 默认取值: 不涉及。 version 否 String 参数解释: 数据库版本。GaussDB支持的版本参考查询数据库引擎的版本。
管理数据库安全 管理用户及权限 敏感数据管理
分区导入数据性能优化 场景描述 当向分区表插入数据的时候,如果插入的数据为常量/参数/表达式等简单类型,会自动对INSERT算子进行执行优化(FastPath)。可以通过执行计划来判断是否触发了执行优化,触发执行优化时Insert计划前会带有FastPath关键字。 示例 gaussdb=#
镜像制作(数据集) 数据集镜像Dockerfile示例 环境变量使用说明 父主题: 镜像仓库
String 错误码。 最小长度:8 最大长度:36 error_msg String 错误描述。 最小长度:2 最大长度:512 请求示例 重置指定数据集成组合任务的进度到指定时间点 https://{{ServerHost}}/v2/c53626012ba84727b938ca8bf03
查看数据集下架申请 前提条件 登录用户为具有“Data Operation Engineer”角色的用户。 操作步骤 在数据集服务界面,选择“个人中心>我的申请”界面,可以查看当前用户所有申请信息。 查看数据集下架申请信息,例如,当前审批人和审批结果等。 单击“操作”列下的“详情”,可以查看数据集下架申请详情。
查询数据恢复历史记录 功能介绍 查询数据恢复历史记录列表。 URI URI格式 GET /softcomai/datalake/dataplan/v1.0/backup/restore/history?pageNum={pageNum}&pageSize={pageSize} 参数说明
添加IoTDB数据源 本章节适用于MRS 3.2.0及之后的版本。 本章节指导用户在安全模式集群的HSConsole界面添加IoTDB类型的JDBC数据源。 添加IoTDB数据源前提条件 数据源所在集群域名与HetuEngine集群域名不能相同。 数据源所在集群与HetuEngine集群节点网络互通。
无需任何人工干预。 实时数据分析 场景概述 实时数据分析是指用适当的统计分析方法实时对收集来的大量数据进行分析,主要包含数据采集,加工,清洗,分析等环节。实时数据分析应用十分广泛,在车联网、金融保险、舆情分析、智慧城市等场景均有应用。 客户瓶颈 收集大数据时需要快速添加大量实例,并在收集结束后删除实例。
否 刷新数据的时间间隔,单位可以为ms、milli、millisecond/s、sec、second/min、minute等。 connector.write.max-retries 否 写数据失败时的最大尝试次数,默认值为:3。 示例 从dis中读取数据,并将数据插入到数据库为f
备注:pg_relation_filepath类似于pg_relation_filenode,但是它返回关系的整个文件路径名(相对于数据库集群的数据目录PGDATA)。 父主题: 数据库对象函数
查询项目OBS信息(数据准备) 功能介绍 查询OBS信息。 URI URI格式 GET /softcomai/datalake/collection/v1.0/task/progress/{progressId} 参数说明 参数名 是否必选 参数类型 备注 progressId 是
符合app_*格式的目录中后缀名为.log的文件。 如果业务容器的数据目录是通过数据卷(Volume)挂载的,插件不支持采集它的父目录,需设置采集目录为完整的数据目录。例如/var/log/service目录是数据卷挂载的路径,则设置采集目录为/var/log或/var/log/
数据迁移到MRS前网络准备 数据迁移网络方案说明 进行大数据迁移时,需要保证源端集群和目的端集群之间的网络互通,例如使用hadoop distcp命令跨集群复制数据时需要所有DataNode节点网络互通。根据不同的迁移场景需要使用不同的方式先打通两套集群之间网络连接。 客户线下数
集成ModuleSDK进行数据处理 操作场景 代码解析 注册节点 创建产品 修改代码 项目打包 制作镜像包 创建应用 部署应用 添加边缘设备 设备接入 父主题: 集成ModuleSDK(Java)
数据库系统概述 数据库逻辑结构图 数据查询请求处理过程 管理事务 相关概念
数据库系统概述 数据库逻辑结构图 数据查询请求处理过程 管理事务 相关概念
数据库系统概述 数据库逻辑结构图 数据查询请求处理过程 管理事务 相关概念