检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询用户订阅并下载成功的数据集信息 根据数据集ID查询用户订阅成功数据集详情信息 查看给定数据集的订阅情况 撤销未审批完成的订单 获取用户订阅申请状态 自动订阅数据集 查询自动订阅的数据集的下载状态 批量申请订阅数据集 数据集订阅到期续订和确认销毁 数据集订阅到期续订 重复提交校验
升级Spark引擎和修改数据表时,如新建队列时切换了计算资源类型可能会导致计费资源的费用变化。 如果原队列使用的是弹性资源池类型的计算资源,那么新建队列不涉及计算资源的费用变化。 如果原队列使用的是非弹性资源池的类型的计算资源,那么使用弹性资源池资源新建队列后计算资源的费用将发生变化,具体情况以计算资源的价格详情为准。
删除数据场景片段 功能介绍 删除数据场景片段 URI DELETE /v1.0/{project_id}/data/scenario/segments/{id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目id,获取方法请参见获取项目ID
回放实例信息 参数 描述 数据流动方向 选择“本云”。 本云指两端均为华为云数据库实例的录制回放场景。 入云指目标数据库为华为云数据库实例且需将数据传入的场景。 源数据库引擎 选择“TaurusDB”。 流量文件来源 选择源数据库流量文件来源。 华为云API下载:通过华为云服务对应的API获取审计日志文件
元数据采集任务接口 查询采集任务列表 创建采集任务 查询采集任务详情 编辑采集任务 删除单个采集任务 启动、调度、停止采集任务 获取任务日志 父主题: 数据目录API
如何将Kafka实例中的数据同步到另一个Kafka实例中? Kafka实例支持创建Kafka数据复制类型的Smart Connect任务时,首先开启Smart Connect,然后创建Kafka数据复制类型的Smart Connect任务,实现两个Kafka实例数据的同步,具体步骤请参考创建Smart
停止pipeline迁移数据 功能介绍 该接口用于停止pipeline迁移数据。 调用方法 请参见如何调用API。 URI POST /v1.0/{project_id}/clusters/{cluster_id}/lgsconf/stop 表1 路径参数 参数 是否必选 参数类型
什么是实例 实例即云耀云服务器,是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。 云耀云服务器创建成功后,您就可以像使用自己的本地PC或物理服务器一样,在云上使用云耀云服务器,打造一个高效、可靠、安全的计算环境。云耀云服务器的开通是自助完成的,您只需要指定镜像、配置(包括CPU
如何退订数据加密服务? 数据加密服务不支持退订。 如果您在使用专属加密时,创建专属加密实例失败,您可以单击创建失败的专属加密实例所在行的“删除”,删除专属加密实例,并以工单的形式申请退款。 相关链接 退订规则说明 不支持退订的云服务产品清单 如何提交工单 父主题: 计费类
运行在ModelArts的模型读取存储在OBS服务的数据,或者输出至OBS服务指定路径,输入和输出数据需要配置3个地方: 训练代码中需解析输入路径参数和输出路径参数。ModelArts推荐以下方式实现参数解析。 1 2 3 4 5 6 7 8 9 10 import argparse
Storage Service,简称OBS)进行数据存储以及模型的备份和快照,实现安全、高可靠和低成本的存储需求。因此,在使用ModelArts之前通常先创建一个OBS桶,然后在OBS桶中创建文件夹用于存放数据。 本文档也以将运行代码以及输入输出数据存放OBS为例,请参考创建OBS桶,例如
Storage Service,简称OBS)进行数据存储以及模型的备份和快照,实现安全、高可靠和低成本的存储需求。因此,在使用ModelArts之前通常先创建一个OBS桶,然后在OBS桶中创建文件夹用于存放数据。 本文档也以将运行代码以及输入输出数据存放OBS为例,请参考创建OBS桶,例如
ECS获取和上传基础镜像 Step1 创建ECS 下文中介绍如何在ECS中构建一个训练镜像,请参考ECS文档购买一个Linux弹性云服务器。完成网络配置、高级配置等步骤,可根据默认选择,或进行自定义。创建完成后,单击“远程登录”,后续安装Docker等操作均在该ECS上进行。 注
使用流式解码实现数据逻辑复制 第三方复制工具通过流式逻辑解码从GaussDB抽取逻辑日志后到对端数据库回放。对于使用JDBC连接数据库的复制工具,具体代码请参考《开发指南》中“应用程序开发教程 > 基于JDBC开发 > 示例:逻辑复制代码示例”章节。 父主题: 逻辑解码
使用流式解码实现数据逻辑复制 第三方复制工具通过流式逻辑解码从GaussDB抽取逻辑日志后到对端数据库回放。 对于使用JDBC连接数据库的复制工具,具体代码请参考《开发指南》中“应用程序开发教程 > 基于JDBC开发 > 典型应用开发示例 > 逻辑复制”章节。 父主题: 逻辑解码
个人数据说明 使用个人数据的场景 日志数据 网络抓包 收集的个人数据项 IP地址 抓包文件 收集的来源和方式 防火墙通过防护的流量识别出的源IP地址和目的IP地址 在防火墙控制台上使用抓包功能 使用目的以及安全保护措施 向用户展示防火墙识别出的流量明细。 数据通过http上传到告警管理服务器。
使用Logstash迁移数据 Logstash使用流程 Logstash集群规划建议 创建Logstash集群 配置Logstash集群路由 配置Logstash迁移任务 扩缩容Logstash集群 管理Logstash集群 Logstash集群监控与日志管理 查看Logstash集群审计日志
version_format 否 String 数据集版本格式。可选值如下: Default:默认格式 CarbonData:Carbon格式(仅表格数据集支持) CSV:CSV格式 version_id 否 String 数据集版本ID。当导出数据集某一版本的数据时,需要指定该参数。 with_column_header
采集数据时报错HoodieKeyException 问题 创建Hudi表时,是否可以使用包含空记录的可空字段作为主键? 回答 不可以。 使用包含空记录的可空字段作为主键时会返回HoodieKeyException异常: Caused by: org.apache.hudi.exception
集群管理 在“连接管理”页签中,单击“新建连接”,分别创建Oracle数据连接和MRS Hive数据连接,详情请参见新建Oracle数据连接和新建MRS Hive数据连接。 在“表/文件迁移”页签中,单击“新建作业”,创建数据迁移作业。 配置Oracle源端参数、MRS hive目的端参数,并配置传递参数,参数形式为