检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HIGH_RISK 高风险 NOT_SCANNED 未扫描 count Integer 有风险的问题数量 abnormal_info Array of SecurityLevelInfo objects 没有配置识别规则的密级列表 表6 SecurityLevelInfo 参数 参数类型 描述 name
of strings 所属的业务分层的ID列表。 model_id 否 String 所属关系建模的模型ID,导出关系模型需要此参数,ID字符串。 响应参数 状态码:200 表4 响应Body参数 参数 参数类型 描述 data data object 返回的数据信息。 表5 data
数据集成(离线作业) 离线作业概述 支持的数据源 新建离线处理集成作业 配置离线处理集成作业 配置作业源端参数 配置作业目的端参数 字段转换器配置指导 新增字段操作指导
在IAM控制台创建用户,并将其加入1中创建的用户组。 用户登录并验证权限 新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择“云数据迁移服务”,进入CDM主界面查看集群,若未提示权限不足,表示“CDM ReadOnlyAccess”已生效。 在“服务列表”中选择除CDM服务外的任一服务,若提示权限不足,表示“CDM
有OBS场景: 作业定义文件在OBS上的路径。例如obs://myBucket/jobs.zip。 workspace 否 String 工作空间id。 如果不设置该参数,默认查询default工作空间下的数据。 如果需要查询其他工作空间的数据,需要带上该消息头。 响应参数 表3
布包名称进行模糊查询。 图2 查看任务状态 对于暂时不发布的发布项,开发者、部署者和管理员可以进行撤销。 发布后,通过操作列的“查看详情”可以查看任务的发布状态和启动状态,在操作列的“版本对比”可以查看发布包不同版本间的内容差异。 图3 查看发布详情 父主题: 脚本开发
Redis作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 redis键前缀 对应关系数据库的表名。 TABLENAME 值存储类型 存储类型分STRING、hash、list、set和zset。 STRING 写入前将相同的键删除 写入前是否将相同的键删除。 否 高级属性
条件分支算子通过获取上游算子的请求参数或结果集进行条件判断,根据定义的表达式来确定下一步执行的分支。注意,多个分支满足条件时仅执行第一个满足条件的分支。 表1 条件分支算子 参数 说明 分支1 条件类型 选择条件类型。 满足当前条件时:表示传入“条件分支”的数据满足指定的表达式时,将执行该分支。
start_time 否 Long 告警的开始时间,默认当前时间的前一个小时,13位时间戳。 end_time 否 Long 告警的最后时间,默认为当前时间,13位时间戳,支持查询最近一周的时间段 offset 否 Integer 分页的起始页,默认值为0。取值范围大于等于0。 limit
可以看到发布任务的过程,最大的发布项个数为100。 单击发布后,系统会提示您“发布成功后,立即对发布包中的作业启动调度”。 对于暂时不发布的发布项,开发者、部署者和管理员可以进行撤销,支持批量撤销。 图1 选择发布 发布之后,您可以通过“发布包管理”查看任务的发布状态。待审批通过后,任务发布成功。
database 是 String MongoDB的数据库名称。 linkConfig.userName 是 String 连接MongoDB服务器的用户名。 linkConfig.password 是 String 连接MongoDB服务器的密码。 父主题: 连接参数说明
操作步骤 登录华为云控制台,在左上角的服务列表中选择“数据治理中心DataArts Studio”,进入DataArts Studio实例控制台。 如果当前区域下有多个DataArts Studio实例,则默认进入实例列表。请单击所需实例卡片上的“进入控制台”,进入DataArts
objects 输入参数列表,列表中的每个参数为“name,value”结构,请参考inputs数据结构参数说明。在“from-config-values”数据结构中,不同的源连接类型有不同的“inputs”参数列表,请参见源端作业参数说明下的章节。在“to-config-val
MRSSpark:执行MRS服务的Spark作业 MapReduce:执行MRS服务的MapReduce作业 MRSFlinkJob: 执行MRS服务的FlinkJob作业。 MRSHetuEngine: 执行MRS服务的HetuEngine作业。 DLISpark:执行DLF服务的Spark作业
参数 参数类型 描述 data data object data,统一的返回结果的最外层数据结构。 表17 data 参数 参数类型 描述 value DimensionVO object value,统一的返回结果的外层数据结构。 表18 DimensionVO 参数 参数类型 描述
X-Auth-Token 是 String IAM Token,通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)使用Token认证时必选。 表3 请求Body参数 参数 是否必选 参数类型 描述 expression 否 String 条件表达式 combine_input_data
配置作业调度为年调度 补数据场景使用介绍 获取SQL节点的输出结果值 查询SQL获取max值传递给CDM作业 IF条件判断教程 获取Rest Client节点返回值教程 For Each节点使用介绍 引用脚本模板和参数模板的使用介绍 开发一个Python作业 开发一个DWS SQL作业
自定义字段 配置自定义字段的参数名称和参数值。 作业标签 配置作业的标签,用以分类管理作业。 单击“新增”,可给作业重新添加一个标签。也可选择管理作业标签中已配置的标签。 作业描述 作业的描述信息。 配置作业参数 单击编辑器右侧的“参数”,展开配置页面,配置如表4所示的参数。 表4 作业参数配置
询近7天的数据。 today:查询当天的实例状态数量, yesterday:查询昨天的实例状态数量, before_yesterday:查询前天的实例状态数量, all查询7天前到当天的实例状态总量。 请求参数 表2 请求Header参数 参数名 是否必选 参数类型 说明 workspace
作空间下的数据。 如果需要查询其他工作空间的数据,需要带上该消息头。 表3 参数说明 参数名 是否必选 参数类型 说明 jobList 是 列表数据结构 要导出的作业名称列表,一次最多支持导出100个作业。 exportDepend 否 boolean 是否导出作业依赖的脚本和资源。