检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
功能介绍 查询目录资源使用情况(包括子目录的资源)。后端有5min的缓存时间,查询的数据可能有延迟。 接口约束 在2023年8月1号之后创建的文件系统支持该API操作。该接口仅适用于SFS Turbo上一代文件系统规格类型(标准型、标准型-增强版、性能型、性能型-增强版)。20M
特点 对当前状态下的数据库实例中的所有数据进行一次完整的备份。 用户可在任意时刻使用全量备份恢复创建备份时的完整数据。 包含自动备份和手动备份。 系统自动每5分钟或一定数据量时会对上一次自动备份或增量备份后更新的数据进行备份。 全部为自动备份。 利用增量备份恢复数据时会依赖最近一次的
Hbase表导入数据,executor报错:RegionTooBusyException 问题现象 客户通过DLI跨源表向CloudTable Hbase导入数据,原始数据:HBASE表,一个列簇,一个rowkey运行一个亿的模拟数据,数据量为9.76GB。导入1000W条数据后作业失败。
通过StorageClass动态创建SFS Turbo子目录 背景信息 SFS Turbo容量最小500G,且不是按使用量计费。SFS Turbo挂载时默认将根目录挂载到容器,而通常情况下负载不需要这么大容量,造成浪费。 everest插件支持一种在SFS Turbo下动态创建子目录的方法,能够在SFS Turbo下
DLI连接 介绍 通过DLI连接,可以导入数据到数据湖探索(DLI)服务,CDM暂不支持从DLI服务导出数据。 连接样例 { "links": [ { "link-config-values": { "configs":
“是否有效”为“否”的数据,对外提供的查询接口将被过滤,其他功能模块也无法引用。 如果某客户群下配置了客户,则该客户群不能被删除。 客户数量不能超过10万。 扩展属性配置 如果标准客户群、客户数据模型当中定义的属性不满足用户业务要求,系统支持根据用户需求扩展属性。系统还支持按业务数据分类扩展属
B,且不超过500条数据。 线体/作业区的扩展属性字段数据不支持导入/导出。 工位的扩展属性字段数据不支持导入/导出。 如果某位置下配置了子位置,则该位置不能被删除。 有效的工厂数量不能超过100。 一个工厂下的线体数据不能超过100。 一个线体下的工位数据不能超过100。 位置服务根节点往下最多6层。
不支持在数据安全侧添加用户。 图15 成员列表 数据权限:在角色详情页面,单击“数据权限”进入数据权限页签。数据权限页签默认展示数据视角,可手动切换到权限视角。在这两种视角下,配置的权限数据是互通的,差异仅为展示视角的不同,推荐您使用权限视角进行批量授权。 数据视角:数据视角下,
TaurusDB标准版数据库内存使用率过高怎么处理 对于用户核心业务相关的库 请扩容实例规格,具体请参见变更TaurusDB标准版实例的CPU和内存规格。 对于非用户核心业务相关的库 查看本地计算机的内存使用率,如果使用率曲线持续平缓,则无需处理。 对于用户核心业务相关但是数据库规格配置很高的库
浏览交易信息 查看各数字资产链通过数据面接口触发数字资产交易的详细情况,包含数字资产集合总量、数字资产发行总量、数字资产流转总量。通过对数据项整体分析,帮助用户进行数字资产运营。 操作步骤 登录DAC管理控制台,在页面左上方选择区域。 在左侧导航栏专享版下方,单击“总览”,进入“总览”页面。
MongoDB连接 介绍 通过MongoDB连接,可以对MongoDB服务器抽取、加载数据。 连接样例 { "links": [ { "link-config-values": { "configs":
注册用户登录信息 获取数据集的授权和订阅量信息 北向获取用户信息 北向获取数据集基本信息 北向获取数据集浏览信息 北向获取数据集订阅信息 北向获取用户登录信息 北向获取数据集密级信息 北向获取数据集目录结构信息 北向获取数据集下载信息 北向获取用户执行动作信息 数据权限通知数据目录当前模型的样本量接口
DCS缓存实例的数据被删除后,能否找回? 如果DCS缓存实例执行了备份操作,实例的数据被删除后,可通过备份文件对数据进行恢复,但是恢复会覆盖备份时间到恢复这段时间的写入数据。 主备、集群和读写分离实例通过控制台的“备份与恢复”功能将已备份的数据恢复到DCS缓存实例中,参考实例恢复。
HBase是基于Key-Value的分布式存储数据库,基于rowkeys对表中的数据按照字典进行排序。如果您根据指定的rowkey查询数据,或者扫描指定rowkey范围内的数据,HBase可以快速查找到需要读取的数据,从而提高效率。在大多数实际情况下,会需要查询列值为XXX的数据。HBase提供了Fil
MySQL数据迁移到MRS Hive分区表 MySQL数据迁移到OBS MySQL数据迁移到DWS MySQL整库迁移到RDS服务 Oracle数据迁移到云搜索服务 Oracle数据迁移到DWS OBS数据迁移到云搜索服务 OBS数据迁移到DLI服务 MRS HDFS数据迁移到OBS
Spark从HBase读取数据再写入HBase样例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关ap
ImportDefaultRuleResultDto objects 此分类绑定的规则导入的结果。 uuid String 数据分类id。 name String 数据分类名称。 description String 数据分类描述。 表7 ImportDefaultRuleResultDto 参数 参数类型 描述
获取后端存储详细信息 删除后端存储 更新后端存储属性 更新后端存储自动同步策略 创建数据导入导出任务 查询数据导入导出任务详情 查询数据导入导出任务列表 删除数据导入导出任务 更新文件系统 父主题: SFS Turbo API说明
创建签名密钥 Signature createSignature 删除签名密钥 Signature deleteSignature 修改签名密钥 Signature updateSignature 绑定签名密钥 SignatureBinding createSignatureBinding
数据库参数group_concat_max_len一致性检查 源数据库和目标数据库的group_concat_max_len参数不一致,这可能导致任务迁移完毕后,业务查询出现截断,建议将参数变为一致。 不通过原因 源数据库和目标数据库的group_concat_max_len参数不一致。