检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。 前往目的端数据源查看数据迁移的入库时间。 父主题: 关键操作指导
删除:在参数值文本框后方,单击删除环境变量。 使用方法 当前配置好的环境变量支持如下两种使用方法: ${环境变量名} #{Env.get(“环境变量名”)} 操作示例 背景信息: 在数据开发模块系统中已创建一个作业“test”。 在环境变量中已新增一个变量,“参数名”为“job”,“参数值”为“123”。 打开作
在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 选择“作业标签”,进入“作业标签管理”页面。 单击“导入作业标签”,弹出“导入作业标签”对话框。 配置导入信息。 文件位置:支持从本地导入和从OBS导入两种方式。 选择文件:本地导入的文件选择本地路径;OBS导入的文件选择OBS桶路径。 建议通过导
status_code String 状态码。 error_code String 错误码。 error_message String 错误信息。 detail String 日志详情。 in_flow_size Long 输入流量大小。 out_flow_size Long 输出流量大小。
Studio实例卡片上通过“更多 > 配额使用量”查看使用量。当您的数据模型数量接近或达到该规格时,建议购买数据模型数量增量包,以避免新建数据模型受限。 背景信息 不同版本的DataArts Studio实例的规格请参见版本规格说明。 您可以在DataArts Studio实例卡片上,通过“更多 >
c。此处的“参数”需要在Python语句中引用,否则配置无效。 交互式输入 否 填写交互式参数,即执行Python语句的过程中,需要用户输入的交互式信息(例如密码)。交互式参数之间以空格分隔,Python语句根据交互情况按顺序读取参数值。 节点名称 是 节点名称,只能包含英文字母、数字、中
取值范围[2, 271],默认值 : 60,单位为天。 超期天数,最小需配置2天,即至少需要等待2天,才可取消未运行的作业实例。 备注 输入备注信息。 单击“CDM集群”,配置所选作业的CDM Job节点的CDM集群。 在左侧下拉框中选择待修改的CDM集群名称,右侧下拉框中选择要设置的CDM集群名称。
"error_code":"DLF.0100", "error_msg":"The job not found" } 错误码如表1所示。 表1 错误码 状态码 错误码 错误信息 描述 处理措施 400 DLF.0100 The job does not exist. 作业不存在。 请检查作业是否存在。 400 DLF
s_hive_link,选择数据库demo_dwr_db,然后输入脚本内容。 图1 编辑脚本 该脚本用于将付款方式、费率代码、供应商的基本信息写入到相应的维度表中。脚本内容如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
c。此处的“参数”需要在Shell脚本中引用,否则配置无效。 交互式输入 否 填写交互式参数,即执行Shell脚本的过程中,需要用户输入的交互式信息(例如密码)。交互式参数之间以空格分隔,Shell脚本根据交互情况按顺序读取参数值。 read -p语法的使用示例: read -p “输入参数1和参数2”变量1
建议创建单独用于Migration任务连接的数据库账号,避免因为数据库账号密码修改,导致的任务连接失败。 连接源和目标数据库的账号密码修改后,请同步修改管理中心对应的连接信息,避免任务连接失败后自动重试,导致数据库账号被锁定影响使用。 支持的同步对象范围 在使用Migration进行同步时,不同类型的链路,支持
当作业节点调度的已使用次数+运行中次数+本日将运行次数之和大于此版本规格,执行调度批处理作业或者启动实时作业时就会提示作业节点调度次数/天超过配额。 背景信息 不同版本的DataArts Studio实例的规格请参见版本规格说明。 您可以在DataArts Studio实例卡片上,通过“更多 >
目的端为分区表时,Hive表清理数据模式建议设置为LOAD_OVERWRITE模式,否则可能会有集群内存过载/磁盘过载的风险。 TRUCATE 分区信息 “导入前清空数据”设置为“是”时,呈现此参数。目的端为分区表时,必须指定分区。 当使用TRUCATE模式:只清理分区下的数据文件。 当使
建议创建单独用于Migration任务连接的数据库账号,避免因为数据库账号密码修改,导致的任务连接失败。 连接源和目标数据库的账号密码修改后,请同步修改管理中心对应的连接信息,避免任务连接失败后自动重试,导致数据库账号被锁定影响使用。 支持的同步对象范围 在使用Migration进行同步时,不同类型的链路,支持
角色的权限说明请参见权限列表章节。 如果预置角色可以满足您的使用需求,则您可以跳过本章节;否则,请您按照本章节描述创建自定义角色。 背景信息 DAYU Administrator或Tenant Administrator账号可以在工作空间中创建自定义角色。 如何创建并通过自定义
角色的权限说明请参见权限列表章节。 如果预置角色可以满足您的使用需求,则您可以跳过本章节;否则,请您按照本章节描述创建自定义角色。 背景信息 DAYU Administrator或Tenant Administrator账号可以在工作空间中创建自定义角色。 如何创建并通过自定义
建议创建单独用于Migration任务连接的数据库账号,避免因为数据库账号密码修改,导致的任务连接失败。 连接源和目标数据库的账号密码修改后,请同步修改管理中心对应的连接信息,避免任务连接失败后自动重试,导致数据库账号被锁定影响使用。 支持的同步对象范围 在使用Migration进行同步时,不同类型的链路,支持
带此header。例如:{"Content-Type":"application/json"} KMS密钥 是 通过KMS加解密数据源认证信息,选择KMS中已创建的密钥。 绑定Agent 是 适用组件勾选数据集成时显示该参数。 DataArts Studio无法直接与非全托管服务进行连接,需要提供DataArts
参数 参数类型 描述 error_code String 错误码,如DQC.0000表示请求处理成功。 error_msg String 错误信息。 请求示例 无 响应示例 状态码: 200 Success { "count" : 2, "resources" : [ {
请求Body参数 参数 是否必选 参数类型 描述 recommendations 否 Array of Recommendation objects 标签信息。 guids 否 Array of strings 资产guid。 add_type 否 String 添加资产类型。cover:覆盖 追加:append。默认追加。