检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据集成资源组可用于如下场景: 用于创建并运行实时处理集成作业,提供数据上云和数据入湖的集成能力。 DataArts Studio实例中默认不包含数据集成资源组,如果您需要使用数据实时迁移功能,请创建数据集成资源组增量包。 背景信息 创建数据集成资源组增量包,系统会按照您所选规格自
Shell 功能 通过Shell节点执行用户指定的Shell脚本。 Shell节点的后续节点可以通过EL表达式#{Job.getNodeOutput()},获取Shell脚本最后4000字符的标准输出。 使用示例: 获取某个Shell脚本(脚本名称为shell_job1)输出值包
导入作业定义及依赖 单击“下一步”,根据提示导入作业。 导入作业时,如果作业中存在“锁定”状态的标签,则作业导入会失败。 当作业导入失败需要自动生成标签时,如果标签已存在且被锁定,则导入失败的作业不会添加上该标签。 在导入作业过程中,若作业关联的数据连接、dis通道、dli队列、GES
配置调度日历相关参数。 输入“日历名称”、选择“默认工作日”以及对调度日历进行备注。 默认工作日可以选择“周一到周五”或“周一到周日”。系统默认周一到周五,生成对应的日历信息。 单击“确认”,调度日历配置完成。 配置完成后,请前往作业开发界面,在所需作业画布右侧“调度配置”页签,选择周期调度,选择
计费,完成后删除新建的存储桶即可;另外,DataArts Studio作业日志和DLI脏数据默认存储在以dlf-log-{Project id}命名的OBS桶中,在退订DataArts Studio后可以一并删除。 MRS MRS计费说明 MRS服务支持按需和包周期计费。本例中使
是否必选 说明 数据连接类型 是 主机连接固定选择为主机连接。 数据连接名称 是 数据连接的名称,只能包含字母、数字、下划线和中划线,且长度不超过100个字符。 标签 否 标识数据连接的属性。设置标签后,便于统一管理。 说明: 标签的名称,只能包含中文、英文字母、数字和下划线,不能
单击CDM集群列表中集群名称列的按钮开,可查看该CDM集群的详情信息,例如可用区、虚拟私有云、子网和安全组等网络相关信息,以及规格、集群ID、关联的工作空间等信息。 图1 查看集群详情信息 您可以单击CDM集群列表中操作列的“关联工作空间”,在弹窗中勾选或去勾选该CDM集群关联
页面。 在“调用信息”页面,单击“申请权限”。 在申请权限页面,设置使用截止时间、选择应用,然后单击“确认”,完成API的权限申请。 如果生成API时设置入参位置为Static,则还需设置静态参数值。如果未配置Static参数值,则SDK调用时会使用API入参默认值,API工具调
用户可以对已选择的作业名称进行删除并重新添加。 说明: 选择作业名称时,建议选择业务流程最下游的节点任务,选择后,影响该节点数据产出的上游节点都将被纳入基线监控范围,不推荐将业务流程上所有的任务都添加到基线上。 优先级 设置基线的优先级,支持以下优先级: 1 2 3 4 5 说明: 定义基线的优先级,数值越
无法获得所有列),则可以单击后选择“添加新字段”来手动增加,确保导入到目的端的数据完整。 关系数据库、Hive、MRS Hudi及DLI做源端时,不支持获取样值功能。 SQLServer作为目的端数据源时,不支持timestamp类型字段的写入,需修改为其他时间类型字段写入(如datetime)。
Workspace-level agency is dlg_agency, Execute job use agency dlg_agency, job id is 07572F197E4642E5BE549C2B656F157Ctm7cHkHd [2021/11/17 02:00:36 GMT+0800]
符。 子作业名称 是 选择需要调用的子作业名称。 说明: 您只能选择已存在的批处理作业名称,此批处理作业不能为作业本身,并且该批处理作业为不包含Sub Job节点的作业。 子作业参数名称 是/否 当节点属性中子作业参数配置为空时,子作业使用自身参数变量执行。父作业的“子作业参数名称”不显现。
无法获得所有列),则可以单击后选择“添加新字段”来手动增加,确保导入到目的端的数据完整。 关系数据库、Hive、MRS Hudi及DLI做源端时,不支持获取样值功能。 SQLServer作为目的端数据源时,不支持timestamp类型字段的写入,需修改为其他时间类型字段写入(如datetime)。
无法获得所有列),则可以单击后选择“添加新字段”来手动增加,确保导入到目的端的数据完整。 关系数据库、Hive、MRS Hudi及DLI做源端时,不支持获取样值功能。 SQLServer作为目的端数据源时,不支持timestamp类型字段的写入,需修改为其他时间类型字段写入(如datetime)。
出数据资产入表三大步骤,以期为有数据资产入表需求的国有企业和上市公司提供参考。 第一步:入表形成原始资产 原始资产入表是将指系统建设及数据生成等所产生的成本费用以成本法入表,据此构成数据资源的初始资产价格。 系统建设是数据资产入表的前置条件。企业需要完成基础信息化建设,并对企业数
该接口用以获取脚本实例的执行状态和结果。 300 30 删除脚本 此接口用以删除指定脚本。 300 30 执行脚本 该接口用以执行指定脚本,脚本每执行一次,生成一个脚本实例。 300 30 停止脚本实例的执行 停止脚本实例的执行。 300 30 资源管理 表4 资源管理 API 说明 API流量限制(次/s)
开发一个DLI Spark作业 在本章节您可以学习到数据开发模块资源管理、作业编辑等功能。 场景说明 用户在使用DLI服务时,大部分时间会使用SQL对数据进行分析处理,有时候处理的逻辑特别复杂,无法通过SQL处理,那么可以通过Spark作业进行分析处理。本章节通过一个例子演示如何
转储任务重名策略 是 选择重名策略。当“转储服务类型”配置的转储任务名称出现重名时,DIS Dump将根据重名策略进行下一步操作。 忽略:不添加转储任务,并退出DIS Dump,DIS Dump的状态为“成功”。 覆盖:继续添加转储任务,覆盖已存在的重名转储任务。 转储服务类型 是
的应用,提升数据安全性。 描述 对应用的介绍。 单击“确定”,创建应用。 创建应用成功后,在“应用管理”页面的列表中显示新创建的应用和应用ID。 将IAM认证方式的API授权给当前账号 使用IAM认证方式的API,必须将API授权后,才能进行API调用。授权可以分为API开发者主
示例场景说明 本实践通过DataArts Studio服务的数据集成CDM组件、数据开发DLF组件和数据仓库服务(DWS)对电影评分原始数据进行分析,输出评分最高和最活跃Top10电影。您可以学习到数据集成模块的数据迁移和数据开发模块的脚本开发、作业开发、作业调度等功能,以及DWS