检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
alter alter all all 相关操作 编辑策略:在hetu权限同步页面,单击对应任务操作栏中的“编辑”,即可编辑hetu权限同步策略。 删除策略:在hetu权限同步页面,单击对应任务操作栏中的“删除”,即可删除策略。当需要批量删除时,可以在勾选策略后,在列表上方单击“删除”。
Spark数据连接适用于数据治理场景。 为保证数据开发场景下,支持为每个Spark SQL作业独立配置需要的资源(例如线程、内存、CPU核数并指定MRS资源队列等),连接方式需要配置为“MRS API连接”。注意,代理连接不支持为每个Spark SQL作业独立配置资源。 为保证数据架构等其他组件能够
按源端分区投递到对应的Partition:源端消息在第n个分区,则投递到目的端的第n个分区,该策略可以保证消息顺序。 按轮询模式投递到不同的Partition:采用Kafka粘性分区策略均匀的投递到目的端主题的所有分区,该策略无法保证消息顺序。 全部投递到Partition 0。 新建Topic的Parti
每页显示的条目数量。 offset 否 Integer 偏移量,表示从此偏移量开始查询,该值大于等于0。 diagnose_id 是 String 诊断任务id,通过调用查询数据权限控制模块诊断结果接口获取。 datasource_type 否 String 数据源类型 HIVE数据源 DWS数据源
任人、运维管理员设置为管理员角色。 开发者:开发者拥有工作空间内创建、管理工作项的业务操作权限。建议将任务开发、任务处理的用户设置为开发者。 运维者:运维者具备工作空间内运维调度等业务的操作权限,但无法更改工作项及配置。建议将运维管理、状态监控的用户设置为运维者。 访客:访客可以
程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 数据集成配置 域名 是 表示通过内部网络访问集群数据库的访问
updateWorkspaceUser 删除工作空间用户 User deleteWorkspaceUser 下载文件 Config downloadFile 创建导入导出任务 Config createObsImportOrExportTask 父主题: 支持云审计的关键操作
DataArts Studio新版控制台首页已经上线,您可以通过单击页面上方banner中的“立即体验”进入。 新版控制台首页,从功能组件入口升级为集任务处理、资源监控和场景学习于一体的一站式数据工作台,全面为您提升生产效率。 图2 旧版控制台首页 图3 新版控制台首页 父主题: 购买并配置DataArts
fromJobConfig.splitType 否 枚举 指定任务分片方式,选择按文件或文件大小进行分割。HDFS上的文件,如果在HDFS上已经分片,则HDFS每个分片视为一个文件。 FILE:按文件数量进行分片。例如有10个文件,并在任务参数中指定“throttlingConfig.num
备份作业:例如需要将CDM集群停掉或删除来降低成本时,可以先通过批量导出把作业脚本保存下来,仅在需要的时候再重新创建集群和重新导入作业。 批量创建作业任务:可以先手工创建一个作业,导出作业配置(导出的文件为JSON格式),然后参考该作业配置,在JSON文件中批量复制出更多作业,最后导入CDM以实现批量创建作业。
查询实时作业的运行状态。 300 30 查询作业实例列表 查询作业实例列表。 300 30 查询作业实例详情 查询作业实例详情。 300 30 查询系统任务详情 查询异步任务详情。 100 10 父主题: API概览
String 连接MRS或FusionInsight HD时,需要配置Manager平台的IP地址。 linkConfig.port 否 String 连接FusionInsight HD时,需要配置Manager平台的端口。 linkConfig.casPort 否 String 连接FusionInsight
表。如果点表或边表中存在多个标签,则生成的元数据会存在缺失。 生成元数据xml文件是手动单击“生成元数据”触发的,如果在该节点在后续的作业调度运行中,点表和边表结构发生变化,元数据xml文件并不会随之更新,需要手动进入新建元数据窗口,再次单击“生成元数据”重新生成新的元数据xml文件。
需要作为不同的用途或给多个业务部门使用。例如既需要用于数据迁移作业,又需要作为DataArts Studio管理中心连接代理时,建议各配置至少一个CDM集群。 待迁移任务库表较多,迁移量较大。此时可以使用多个CDM集群同时作业,提升迁移效率。 当前CDM集群的CPU使用率、磁盘使用率、内存使用率等指标经常在
开启委托功能,即可以在无需持有永久AKSK的情况下创建数据连接,根据DLF配置的调度身份执行CDM作业。 公共委托 是 使用委托为是时显示该参数。 仅涉及用于测试该连接委托功能是否正常,作业运行将根据DLF配置的调度身份执行CDM作业。 访问标识(AK) 是 “数据集成”参数开启时并且“
程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 数据集成配置 数据库名称 是 配置为要连接的数据库名称。 例如:dbname
ame”。 toJobConfig.shouldClearTable 否 Boolean 导入前是否清空目标表的数据,如果设置为true,任务启动前会清除目标表中数据。 父主题: 目的端作业参数说明
的后续作业实例都会处于等待运行状态。 是否空跑 否 如果勾选了空跑,该节点不会实际执行,将直接返回成功。 任务组 否 选择任务组。任务组配置好后,可以更细粒度的进行当前任务组中的作业节点的并发数控制,比如作业中包含多个节点、补数据、重跑等场景。 表3 血缘关系 参数 说明 输入 新建
API流量限制(次/10s) 用户流量限制(次/10s) 查询用户同步列表 查询用户同步列表。 3600 40 查询单个用户同步任务 查询单个用户同步任务。 3600 40 队列权限接口 表10 队列权限接口 API 说明 API流量限制(次/10s) 用户流量限制(次/10s) 查询当前空间下分配的队列资源
下存在该文件的情况下才会运行任务,不指定时默认不启用该功能,例如:“ok.txt”。 fromJobConfig.waitTime 否 String 选择开启作业标识文件的功能时,如果源路径下不存在启动作业的标识文件,作业挂机等待的时长,当超时后任务会失败。 等待时间设置为0时,