检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户可以通过基线名称、责任人、优先级、承诺时间快速查询目标基线实例。系统支持对优先级进行过滤,可以对指定承诺时间的某时间内的基线实例进行查询。 基线状态: 安全:任务在预警时间之前完成。 预警:任务在预警时间之后未完成,但还未到达承诺时间。 破线:任务在承诺时间之后仍未完成。 异常:基线所有任务处于暂停状态或基线没有关联任务。
Studio实例暂不支持修改时区。 数据开发作业调度时可通过EL表达式适配当地时间,例如: #{DateUtil.format(DateUtil.addHours(Job.planTime,-7),"yyyy-MM-dd")} 父主题: 数据开发
在DataArts Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 在作业目录中选择需要复制名称的作业,右键单击作业名称,选择“复制名称”,即可复制名称到剪贴板。 图1 复制作业名称 重命名作业
开发并调度Import GES作业 本章节介绍通过数据开发调用数据集成作业,将MySQL原始数据定期同步到OBS和MRS Hive中,并标准化为GES点/边数据集。然后基于标准化点/边数据集,自动生成图的元数据,实现最终将图数据(点数据集、边数据集和元数据)定期导入到GES服务中。
开发实时处理单任务MRS Flink SQL作业 对已新建的作业进行开发和配置。 开发单任务模式的实时处理Flink SQL作业,请您参考开发SQL脚本、配置作业参数、保存作业和模板章节。 前提条件 已新建作业。 当前用户已锁定该作业,否则需要通过“抢锁”锁定作业后才能继续开发作
数据开发应用示例 操作场景 数据治理中心DataArts Studio帮助企业快速构建从数据接入到数据分析的端到端智能数据系统,消除数据孤岛,统一数据标准,加快数据变现,实现数字化转型。 下面介绍如何调用创建脚本API创建脚本,API的调用方法请参见如何调用API。 前提条件 您
数据开发操作列表 云审计服务(Cloud Trace Service,简称CTS)为用户提供了云账户下资源的操作记录,可以帮您记录相关的操作事件,便于日后的查询、审计和回溯。 表1 支持云审计的关键操作列表 操作名称 资源类型 事件名称 创建作业 job createJob(api)
出消息、作业调度计划时间、作业执行时间等属性和方法。 工具类对象:提供了一系列字符串、时间、JSON操作方法,例如从一个字符串中截取一个子字符串、时间格式化等。 语法 表达式的语法: #{expr} 其中,“expr”指的是表达式。“#”和“{}”是数据开发模块EL中通用的操作符
}获取。通常,业务日期为计划时间所在日期-1。 计划时间是指在调度时间内,任务预期调度运行的时间点(即当天),精确到秒。计划时间可通过$[yyyymmddhh24miss]获取。 业务ID参数包括作业ID和作业生成的实例ID两种,通过$job_id和$instance_id获取。
集市)。 汇总表分为“手工创建”和“自动汇聚”,此处仅描述手工创建场景。 如果在“数据架构 > 配置中心 > 功能配置”页面中开启了“模型设计业务流程步骤 > 创建数据开发作业”(默认为关闭),发布汇总表时,系统将在数据开发中自动创建一个数据开发作业,作业名称以“数据库名称_表编码”开头。您可以进入“数据开发
选择需要重跑的实例。 重跑当前实例 重跑当前作业及其上下游作业实例 开始时间 仅当“重跑类型”选择“重跑当前作业及其上下游作业实例”时,才需要配置。 设置好开始时间和结束时间,系统会重跑所设置的时间段内的作业实例。 说明: 如果所选的时间段内没有可以重跑的作业实例,系统会报错“Job xxx have
已在“dli_db”数据库中创建数据表trade_log和trade_report。 如未创建,请参考新建数据表进行操作。 操作步骤 新建和开发SQL脚本。 在数据开发模块控制台的左侧导航栏,进入“数据开发 > 脚本开发”,选择“新建DLI SQL脚本”。 进入SQL脚本开发页面,在脚本属性栏选择“数据连接”、“数据库”、“资源队列”。
离线处理集成作业开发 离线处理集成作业概述 支持的数据源 新建离线处理集成作业 配置离线处理集成作业 配置作业源端参数 配置作业目的端参数 字段转换器配置指导 新增字段操作指导 父主题: 数据开发
配置源端和目标端参数 源端为MySQL,目的端为MRS Hudi 源端为MySQL,目的端为DMS Kafka 源端为MySQL,目的端为DWS 源端为Apache Kafka,目的端为MRS Kafka 源端为DMS Kafka,目的端为OBS 源端为Oracle,目的端为DWS
式”。 普通模式:作业配置的启动时间和补数据的时间范围作为作业的调度计划时间,作业依赖关系按照调度计划时间判断。 业务日期模式:作业配置的启动时间和补数据时间范围为业务数据日期时间,作业依赖关系按照业务日期判断。业务日期模式景下,作业实例的生效时间为业务日期。 普通模式切换为业务
实时处理集成作业开发 实时处理集成作业概述 支持的数据源 新建实时处理集成作业 配置实时处理集成作业 管理并查看监控指标 配置源端和目标端参数 自动建表映射规则 性能调优参数配置 常见问题 父主题: 数据开发
作业状态轮询时间(秒) 是 设置轮询时间(30~60秒、120秒、180秒、240秒、300秒),每隔x秒查询一次作业是否执行完成。 作业运行过程中,根据设置的作业状态轮询时间查询作业运行状态。 最长等待时间 是 设置作业执行的超时时间,如果作业配置了重试,在超时时间内未执行完成,该作业将会再次重试。
e)的数据时,支持导出指定时间段内的数据,配合CDM的定时任务,可以实现HBase/CloudTable的增量迁移。 如果配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时,系统会将时间宏变量替换为“数据开发作业计划启动时间-偏移量”,而不是“CDM作业实际启动时间-偏移量”。
原因分析 云搜索服务对于时间类型有一个特殊处理:如果存储的时间数据不带时区信息,在Kibana可视化的时候,Kibana会认为该时间为GMT标准时间。 在各个地区会产生日志显示时间与本地时区时间不一致的现象,例如,在东八区某地,日志显示时间比本地时区时间少8个小时。因此在CDM迁
数据开发API(V2)概览 表1 数据开发API(V2)类型 类型 说明 作业开发 作业开发类型接口。 作业开发 表2 作业开发 API 说明 API流量限制(次/s) 用户流量限制(次/s) 创建补数据实例 创建一个补数据实例。 100 10 查询补数据实例 查询补数据实例列表,支持分页查询。