检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
购买批量数据迁移增量包 批量数据迁移增量包对应数据集成CDM集群。 通过购买一个按需计费方式的批量数据迁移增量包,系统会按照您所选规格自动创建一个数据集成CDM集群。 通过购买一个套餐包方式的批量数据迁移增量包,系统不自动创建CDM集群,而是在生效期内的每个计费月内按月提供745
创建DataArts Studio数据连接 通过配置数据源信息,可以建立数据连接。DataArts Studio基于管理中心的数据连接对数据湖底座进行数据开发、治理、服务和运营。 配置开发和生产环境的数据连接后,数据开发时脚本/作业中的开发环境数据连接通过发布流程后,将自动切换对应生产环境的数据连接。
开发一个DWS SQL作业 介绍如何在数据开发模块上通过DWS SQL节点进行作业开发。 场景说明 本教程通过开发一个DWS作业来统计某门店的前一天销售额。 环境准备 已开通DWS服务,并创建DWS集群,为DWS SQL提供运行环境。 已开通CDM增量包,并创建CDM集群。 CD
查看API访问日志 操作场景 支持专享版用户API调用日志的查询,包括请求路径,请求参数,请求响应结果等。 当前数据服务日志仅支持专享版。 配置云日志基础服务 为了能够在云日志服务上面看到数据服务API的日志,需要配置云日志服务。关于云日志服务的详细配置和操作方法,请参见《云日志服务用户指南》。
6000,请求处理失败。 error_msg String 错误信息。 data Object 返回的数据信息。 请求示例 根据下列参数,更新维度。 PUT https://{endpoint}/v2/{project_id}/design/dimensions { "id" : "1300473264673533952"
P0&P1&P2.SUBP1&P2.SUBP3 拆分作业 选择“是”,会根据“作业拆分字段”值,将作业拆分为多个子作业并发执行。 说明: 仅支持目的端为DLI和Hive时配置该参数及作业拆分字段、拆分字段最小值、拆分字段最大值、子作业个数参数。 是 作业拆分字段 “拆分作业”选择“是”时
系统自动填写队列所在的集群名称。 队列名称 无需填写, 系统自动填写当前的队列名称。 *策略名称 用于标识MRS Yarn队列权限策略,为便于策略管理,建议名称中包含授权对象。 策略描述 为更好地识别策略,此处加以描述信息。 策略状态 开启后当前策略生效。 审计日志 开启后可记录当前队列的操作日志,需要在数据源侧查看对应的审计日志。
error_msg String 错误信息。 data Object 返回的数据信息。 请求示例 通过查询条件获取事实表列表。 GET https://{endpoint}/v2/{project_id}/design/fact-logic-tables?offset=1&limi
迁移作业原理 数据迁移模型 CDM数据迁移时,简化的迁移模型如图1所示。 图1 CDM数据迁移模型 CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。
批量管理CDM作业 操作场景 这里以表/文件迁移的作业为例进行介绍,指导用户批量管理CDM作业,提供以下操作: 作业分组管理 批量运行作业 批量删除作业 批量导出作业 批量导入作业 批量导出、导入作业的功能,适用以下场景: CDM集群间作业迁移:例如需要将作业从老版本集群迁移到新版本的集群。
error_msg String 错误信息。 data Object 返回的数据信息。 请求示例 根据请求参数,创建物理表。 POST https://{endpoint}/v2/{project_id}/design/table-model { "attributes" :
驱动程序名称: com.mysql.jdbc.Driver org.postgresql.Driver driverPath 是 String 驱动在OBS上路径。 表8 CloudTable类型的连接配置项说明 参数名 是否必选 参数类型 说明 clusterName 是 String CloudTable集群名称
IAM用户操作时报错“无xx权限”怎么办? 可能原因 DataArts Studio基于DAYU系统角色+工作空间角色实现授权的能力。为使IAM用户权限正常,IAM用户所在的用户组需要在IAM控制台中被授予DAYU User或DAYU Administrator的系统角色,另外也必须确保DAYU
开发一个Hive SQL作业 本章节介绍如何在数据开发模块上进行Hive SQL开发。 场景说明 数据开发模块作为一站式大数据开发平台,支持多种大数据工具的开发。Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能;可
可以免费试用DataArts Studio吗? 目前DataArts Studio提供两种免费试用途径。 试用初级版:您可以通过参加相关活动,限时免费试用初级版DataArts Studio。初级版实例默认赠送一个CDM集群。 使用免费版:免费版定位于试用场景,相比初级版不自带C
通过应用授权APP认证方式API 应用定义了一个API调用者的身份。对于使用APP认证方式的API,必须在创建APP类型应用并将API授权给应用后,才能获得认证信息以用于API调用。 一个APP认证方式的API可以授权给多个APP类型的应用,多个APP认证方式的API也可以授权给
返回的数据信息。 请求示例 查询表ID为1169329693619625984、业务类型为FACT_LOGIC_TABLE的维度颗粒度。 GET https://{endpoint}/v2/{project_id}/design/dimension/groups?biz_type=FACT_
error_msg String 错误信息。 data Object 返回的数据信息。 请求示例 根据请求参数,更新物理表。 PUT https://{endpoint}/v2/{project_id}/design/table-model { "id" : "1231932180633112576"
创建并管理工作空间 购买DataArts Studio实例的用户,系统将默认为其创建一个默认的工作空间“default”,并赋予该用户为管理员角色。您可以使用默认的工作空间,也可以参考本章节的内容创建一个新的工作空间。 DataArts Studio实例内的工作空间作为成员管理、
String 错误信息。 data Object 返回的数据信息。 请求示例 获取当前工作空间下,数据资产的主题数信息l1、l2、l3。 GET https://{endpoint}/v2/{project_id}/design/subjects/business 响应示例 状态码:200