检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持与限制的命令 用户在连接到社区版文档数据库后,需要关注以下支持以及限制的命令。 更多信息,请参见MongoDB官方文档。 如下表所示,“√”表示当前版本支持该命令,“×”表示当前版本不支持该命令。 表1 支持与限制的命令 命令类别 命令名称 3.4 4.0 4.2 备注 Aggregates
StarRocks资源检查 功能介绍 StarRocks资源检查。 调用方法 请参见如何调用API。 URI POST /v3/{project_id}/starrocks/resource-check 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
Spark从Hive读取数据再写入HBase样例程序(Python) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
清除DDL告警 功能介绍 清除DDL告警 URI POST /v5/{project_id}/jobs/{job_id}/alarms/{alarm_id}/clean 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 租户在某一Region下的Project
如何获取当前连接数据库的用户名? 答:执行以下命令查询当前用户名。 gaussdb=# SELECT current_user; 父主题: FAQ
默认情况下,新的数据库对象是创建在“$user”模式下的。关于模式的更多信息请参见创建和管理schema。 除了创建的表以外,数据库还包含很多系统表。这些系统表包含数据库安装信息以及GaussDB上运行的各种查询和进程的信息。可以通过查询系统表来收集有关数据库的信息。请参见查看系统表。
默认情况下,新的数据库对象是创建在“$user”模式下。关于模式的更多信息请参见创建和管理schema。 除了创建的表以外,数据库还包含很多系统表。这些系统表包含数据库安装信息以及GaussDB上运行的各种查询和进程的信息。可以通过查询系统表来收集有关数据库的信息。请参见查看系统表。
drs:migrationJobs:update √ √ 批量获取数据库参数 POST /v3/{project_id}/jobs/batch-get-params drs:databaseParameters:get √ √ 批量续传/重试 POST /v3/{project_id}/jobs/batch-retry-task
试功能。 URI POST /v2/{project_id}/datasets/{dataset_id}/data-annotations/labels/delete 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id
界面配置dfs.blocksize后上传数据,block大小未改变 问题背景与现象 界面配置“dfs.blocksize”,将其设置为268435456,上传数据,block大小还是原来的大小。 原因分析 HDFS客户端的“hdfs-site.xml”文件中的dfs.blocksize大小没有更改,以客户端配置为准。
如何使用Java调用CDM的Rest API创建数据迁移作业? CDM提供了Rest API,可以通过程序调用实现自动化的作业创建或执行控制。 这里以CDM迁移MySQL数据库的表city1的数据到DWS的表city2为例,介绍如何使用Java调用CDM服务的REST API创建、启动、查询、删除该CDM作业。
Spark从HBase读取数据再写入HBase样例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关ap
Spark从HBase读取数据再写入HBase样例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关ap
Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/datasets/{dataset_id}/workforce-tasks/{workforce_t
同步实例列表 功能介绍 同步实例列表。 调试 您可以在API Explorer中调试该接口。 URI POST /v3/{project_id}/instances/synchronize-instance-list 表1 路径参数 参数 是否必选 参数类型 描述 project_id
户。 购买云防火墙 根据您需要的防火墙实例版本,参考以下操作购买。 基础版防火墙 登录管理控制台。 单击管理控制台左上角的,选择区域。 在左侧导航栏中,单击左上方的,选择“安全与合规 > 云防火墙”,进入云防火墙的总览页面。 单击“购买云防火墙”,进入“购买云防火墙”页面,相关参数如表
修改组织事件 通过该接口将更新的组织同步至应用系统。 URL POST https://{app_domain}/callback 请求头 Authorization: Bearer {access_token} 请求参数 表1 请求参数 参数 固定参数 参数类型 描述 id 是
Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v3/{project_id}/{resource_type}/resource-instances/count 表1 路径参数 参数
Windows主机上无法创建文件和向文件写入数据 可能原因 当将同一个文件系统分别挂载到已创建的Linux云服务器和Windows云服务器后,在Windows云服务器上无法对在Linux云服务器上创建的文件写入数据。 解决方法 需要修改Windows注册表将系统访问NFS的UID和GID均修改为0,操作步骤如下:
sh”,进行Loader作业数据备份。系统将数据备份到作业的输出路径同一层目录。 ./run.sh 备份数据的输入目录 例如,备份数据的输入目录为“/user/hbase/”,作业的输出路径为/opt/client/sftp/sftp1,其中sftp1只起到一个占位符的作用。执行如下命令,数据将备份到