检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
已了解简单模式与企业模式工作空间的区别,包括不同工作空间的开发流程等差异,详情请参见简单模式与企业模式介绍。 已配置空间级的身份调度,包含公共委托和公共IAM账号,详情请参见配置公共委托和配置公共IAM账号。 已准备好两套相互隔离的数据湖引擎,用于隔离开发和生产环境。 配置两套数据湖服务,进行开发与生产环境隔离。 对
数据集市 数据开发 可管理多种大数据服务,提供一站式的大数据开发环境。 使用DataArts Studio数据开发,用户可进行数据管理、数据集成、脚本开发、作业开发、作业调度、运维监控等操作,轻松完成整个数据的处理分析流程。 数据管理 数据管理流程 脚本开发 脚本开发流程 作业开发 作业开发流程
CREATE_SUCCESS: 创建成功 CREATE_FAILED: 创建失败 UPDATE_SUCCESS: 更新成功 UPDATE_FAILED: 更新失败 SUMMARY_SUCCESS: 整体成功 SUMMARY_FAILED: 整体失败 RUNNING: 整体运行 OFFLINE:
Studio控制台实例,进行所用空间的数据开发界面,单击左侧导航栏的“作业监控”,进入“实时集成作业监控界面”,搜索对应的实时集成作业,单击右侧操作栏中的“暂停”按钮。 图1 暂停作业1 方式二: 登录DataArts Studio控制台实例,进行所用空间的数据开发的“作业开发”界面,搜索并双击进入
String 默认可用区。 availableZones Array of CdmClusterAvailabilityZone objects 可用区。 表4 CdmClusterAvailabilityZone 参数 参数类型 描述 availableZoneId String
获取SDK,然后新建工程,最后参考API调用示例调用API。 本章节以IntelliJ IDEA 2018.3.5版本、搭建Node.js开发环境为例介绍。 准备环境 已获取API的域名、请求url、请求方法、AppKey和AppSecret等信息,具体参见认证前准备。 获取并安
作业调度时间。格式参照:30_18,表示18点30分。 env_type 否 String 开发生产环境类型。 枚举值: INVALID_TYPE: 无效环境 DEV_TYPE: 开发环境 PROD_TYPE: 生产环境 DEV_PROD_TYPE: 开发生产环境 表4 BizInfoVO 参数 是否必选 参数类型
在配置下载权限策略前,应确保授权对象已具备在数据开发组件中SQL脚本执行结果的转储以及在下载中心下载操作权限(即已被授予DataArts Studio权限并被添加为对应工作空间角色,详见授权用户使用DataArts Studio),且已在数据开发中通过配置“数据导出策略”默认项允许授权对
ShowApisDetailRequest request = new ShowApisDetailRequest(); request.withApiId("{api_id}"); try { ShowApisDetailResponse
ShowAppsDetailRequest request = new ShowAppsDetailRequest(); request.withAppId("{app_id}"); try { ShowAppsDetailResponse
示例二 某项目数据开发工程师通过DataArts Studio进行数据开发工作,被项目管理员赋予了“开发者”的预置角色。但该数据开发工程师还需要修改数据架构的配置中心的DDL模板用于数据开发,而“开发者”的预置角色不具备该权限。管理员如果直接赋予该数据开发工程师“管理员”的预置角色,则会出现权限过大的风险。
不同版本的DataArts Studio实例,提供了不同的作业节点调度次数/天规格限制。该规格是以每天执行的数据开发作业、质量作业、对账作业、业务场景和元数据采集作业的调度次数之和计算的,其中数据开发作业的每天调度次数是以节点为粒度进行度量。您可以在新版本模式的DataArts Studio实例卡片上通过“更多
CDM优势 优势项 用户自行开发 CDM 易使用 自行准备服务器资源,安装配置必要的软件并进行配置,等待时间长。 程序在读写两端会根据数据源类型,使用不同的访问接口,一般是数据源提供的对外接口,例如JDBC、原生API等,因此在开发脚本时需要依赖大量的库、SDK等,开发管理成本较高。 CD
CREATE_SUCCESS: 创建成功 CREATE_FAILED: 创建失败 UPDATE_SUCCESS: 更新成功 UPDATE_FAILED: 更新失败 SUMMARY_SUCCESS: 整体成功 SUMMARY_FAILED: 整体失败 RUNNING: 整体运行 OFFLINE:
Studio完成数据治理的流程和操作。 进阶实践 数据迁移进阶实践 数据开发进阶实践 参考案例 贸易数据统计与分析 车联网大数据业务上云 搭建实时报警平台 跨工作空间的DataArts Studio数据搬迁 通过数据开发使用参数传递灵活调度CDM作业 通过数据开发实现数据增量迁移 通过CDM节点批量创建分表迁移作业
示例二 某项目数据开发工程师通过DataArts Studio进行数据开发工作,被项目管理员赋予了“开发者”的预置角色。但该数据开发工程师还需要修改数据架构的配置中心的DDL模板用于数据开发,而“开发者”的预置角色不具备该权限。管理员如果直接赋予该数据开发工程师“管理员”的预置角色,则会出现权限过大的风险。
产、销售等)或者实施环境(开发、测试、生产等),没有特定的划分要求。 随着业务的不断发展,您可能进行了更细致的工作空间划分。这种情况下,您可以参考本文档,将原有工作空间的数据(包含管理中心数据连接、数据集成连接和作业、数据架构表、数据开发脚本、数据开发作业、数据质量作业等),搬迁到新建的工作空间中。
数据服务SDK是基于DataArts Studio数据服务创建的数据API封装的SDK包。通过调用此SDK包提供的代码样例,即可进行数据服务中数据API的调用,帮助开发者简单、快速地通过数据API获取到开放数据。 数据服务SDK支持的语言有:C#、Python、Go、JavaScript、PHP、C++、
compaction作业执行失败。 创建Spark SQL周期性Compaction任务。 前往DataArts Studio数据开发界面,参考《开发批处理单任务SQL作业》创建Spark SQL作业。 图2 创建Spark SQL单任务作业 配置与Hudi相对应的Spark数据
在DataArts Studio数据开发中,作业运行成功后,您可以登录DataArts Studio数据质量控制台查看质量作业运行结果。 在DataArts Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在DataArts Studio作业开发控制台,选择步骤6: