检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
或通过咨询了解。 购买并配置DataArts Studio 如果您是第一次使用DataArts Studio,需要先完成注册华为账号、购买DataArts Studio实例、创建工作空间等一系列操作。 购买并配置DataArts Studio 购买并配置DataArts Studio
间,宽限期内客户可正常访问及使用云服务。 保留期:指宽限期到期后客户的包周期资源仍未续订或按需资源仍未缴清欠款,将进入保留期。保留期内客户不能访问及使用云服务,但对客户存储在云服务中的数据仍予以保留。 华为云宽限期和保留期时长设定请参考宽限期保留期。 父主题: 咨询与计费
如果非审核人权限的用户发布API时,待审核人审核通过后,即可发布完成。 处于待审核状态的API无法修改数据连接,需要具有空间管理员角色的用户审批驳回才可进行修改。 审核人支持管理员、开发者、运维者,访客无法添加为审核人。 工作空间管理员角色的用户,无论是否被添加为审核人,都默认具备审核人权限。
列注释模拟数据 table_comment 否 String 表注释模拟数据 table_name 否 String 表名模拟数据 database_name 否 String 库名模拟数据 表5 DataClassificationSingleRuleDTO 参数 是否必选 参数类型
/v1/b384b9e9ab9b4ee8994c8633aabc9505/jobs/myJob/stop 响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.0100", "error_msg":"The job
用二进制直接传输文件目录,2个集群并发执行作业。 注意事项 当迁移动作影响到客户的HDFS集群时,需要手动停止作业。 如果作业出现大批量的失败: 先检查DES盒子是否被写满。如果写满,需要清除最近写入的目录,保证后面写入的数据都是完整的。 再检查网络是否连通。 检查客户的HDFS
系统默认展示一个月的批处理作业实例运行时长数据。 实例运行失败top100 通过时间和责任人筛选出我的或者全部责任人的实例运行失败top100的数据。 单击作业名称,可以跳转到实例监控界面,查看作业运行的详细信息,查看作业实例运行失败的详细日志并分析原因。 系统默认展示一个月的批处理作业实例运行数据。
新建数据连接 通过新建数据连接,您可以在数据开发模块中对相应服务进行更多数据操作,例如:管理数据库、管理命名空间、管理数据库模式、管理数据表。 在同一个数据连接下,可支持多个作业运行和多个脚本开发,当数据连接保存的信息发生变化时,您只需在连接管理中编辑修改该数据连接的信息。 新建数据连接
33aabc9505/jobs/job_batch/instances/34765/stop 响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.0137", "error_msg":"Job instance
CDM是否支持参数或者变量? 问题描述 CDM是否支持参数或者变量? 解决方案 支持。 如果CDM作业使用了在数据开发时配置的作业参数或者变量,则后续在DataArts Studio数据开发模块调度此节点,可以间接实现CDM作业根据参数变量进行数据迁移。 父主题: 数据集成(CDM作业)
String 登录CloudTable集群的访问标识。建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 linkConfig.securityKey 是 String 登录CloudTable集群的密钥。建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 父主题:
resources/3624d1c3-5df5-4f20-9af9-98eadad6c5f9 响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.6241", "error_msg":"The resource
factory/supplement-data/P_job_8002_203_aa/stop 响应示例 成功响应 HTTP状态码 200 失败响应 HTTP状态码 400 { "error_code": "DLF.0113", "error_msg": "The supplement
因此,如果不具备审核人权限的用户需要发布API时,请先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 审核人支持管理员、开发者、运维者,访客无法添加为审核人。 工作空间管理员角色的用户,无论是否被添加为审核人,都默认具备审核人权限。 操作步骤 参考访问DataArts Studio实例控制台,登录DataArts
作业数据输入总数 展示用户Flink作业的数据输入总数,供监控和调试使用 ≥ records 实时处理集成作业 1分钟 作业数据输出总数 展示用户Flink作业的数据输出总数,供监控和调试使用 ≥ records 实时处理集成作业 1分钟 作业字节输入速率 展示用户Flink作业每秒输入的字节数
ipt/instances/a1ad-448a-9d56-4154193d49c5/stop 响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.6205", "error_msg":"The script
是否支持增量迁移? 问题描述 CDM是否支持增量迁移? 解决方案 CDM支持增量数据迁移。 利用定时任务配置和时间宏变量函数等参数,可支持以下场景的增量数据迁移: 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 详情请参见增量迁移。 父主题: 数据集成(CDM作业)
必须包含在集合内。 deploy_status_filter 否 array[integer] 发布状态集合。 1:待审批 2:成功 3:失败 5:发布中 sorted_direction 否 String 排序方向,默认是desc。 order_column 否 String
"Job[jdbc2hive] doesn't exist." } 状态码 状态码 描述 200 OK。 400 请求错误。 401 鉴权失败。 403 没有操作权限。 404 找不到资源。 500 服务内部错误,具体返回错误码请参考错误码。 错误码 请参见错误码。 父主题: 作业管理
se-packages/unpack {"package_ids":["12","13"]} 响应示例 成功响应 HTTP状态码 200 失败响应 HTTP状态码 400 { "error_code": "DLF.0810", "error_msg": "Task does