检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SQL语句时,把SQL语句放在请求的消息体中,将脚本内容返回给MRS。 单击“保存”,对设置的配置项进行保存。 Hive SQL和Spark SQL脚本、Pipeline作业以及单任务作业支持Hive SQL及Spark SQL执行方式的配置。 补数据优先级设置 设置补数据作业的优先级。当系统资源
配置SQLServer源端参数 支持从云端的数据库服务导出数据。 这些非云服务的数据库,既可以是用户在本地数据中心自建的数据库,也可以是用户在ECS上部署的,还可以是第三方云上的数据库服务。 表1 SQLServer作为源端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 使用SQL语句
COMMON: 普通维度 LOOKUP: 码表维度 HIERARCHIES: 层级维度 name_ch 是 String 维度名称。 description 是 String 描述。 create_by 否 String 创建人。 update_by 否 String 更新人。 code_table_id
great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted
anonymous.user ip=189.xxx.xxx.75 op=show obj=version objId=x 正则表达式为: ^(\d.*\d) (\w*) \[(.*)\] user=(\w.*) ip=(\w.*) op=(\w
anonymous.user ip=189.xxx.xxx.75 op=show obj=version objId=x 正则表达式为: ^(\d.*\d) (\w*) \[(.*)\] user=(\w.*) ip=(\w.*) op=(\w
需要先在kibana中创建管道ID,这里才可以选择,该参数用于数据传到Elasticsearch后,通过Elasticsearch的数据转换pipeline进行数据格式变换。 pipeline_id 开启路由 开启路由后,支持指定某一列的值作为路由写入Elasticsearch。 说明: 开启路由前建议先建好目的端索引,可提高查询效率。
配置PostgreSQL源端参数 支持从云端的数据库服务导出数据。 这些非云服务的数据库,既可以是用户在本地数据中心自建的数据库,也可以是用户在ECS上部署的,还可以是第三方云上的数据库服务。 表1 PostgreSQL作为源端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 使用SQL语句
COMMON: 普通维度 LOOKUP: 码表维度 HIERARCHIES: 层级维度 name_ch 是 String 维度名称。 description 是 String 描述。 create_by 否 String 创建人。 update_by 否 String 更新人。 code_table_id
"standardLevel", "fd_value" : "domain" }, { "fd_name" : "description", "fd_value" : "这是一个demo" } ] } } } 状态码: 400
复合指标ID,ID字符串。更新时必填。 name_en String 复合指标英文名称。 name_ch String 复合指标名称。 description String 描述 dimension_group String 统计维度ID,更新时不可修改此值。 group_name String
状态码: 200 表3 响应Body参数 参数 参数类型 描述 id Long 作业ID。 name String 作业名称。 description String 作业描述。 category_id Long 所属目录ID level String 告警级别,SUGGEST表示
"fd_name" : "standardLevel", "fd_value" : "" }, { "fd_name" : "description", "fd_value" : "这是一个测试用例。" } ] } 响应示例 状态码: 200 Success {
"standardLevel" }, { "id" : "1082235079767502857", "fd_name" : "description", "fd_value" : "测试8M数据标准导入的描述" } ] } 响应示例 状态码: 200 Success
status 是 String 节点状态: waiting:等待运行 running:运行中 success:运行成功 fail:运行失败 skip:跳过 pause:暂停 manual-stop:取消 queue 是 String DLI资源队列名称。 说明: 在返回响应中,仅DLI
"type": "HASH", //动态脱敏规则类型,除SM3为HASH类型外,其他规则均为MASK类型 "description": "SM3算法加密", //动态脱敏规则描述 }, "datasource_type":"HIVE",
表发布后对应的物理表guid。 code String 编码。 create_by String 创建人。 tenant_id String 租户ID。 description String 描述。 status String 实体的发布状态,只读,创建和更新时无需填写。 枚举值: DRAFT: 草稿 PUBLISH_DEVELOPING:
great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted
配置Redis源端参数 第三方云的Redis服务无法支持作为源端。如果是用户在本地数据中心或ECS上自行搭建的Redis支持作为源端或目的端。 作业中源连接为从本地Redis导出的数据时,源端作业参数如表1所示。 表1 Redis作为源端时的作业参数 参数类型 参数名 说明 取值样例
每一个节点可以独立调度,支持单次调度、周期调度、事件驱动调度三种调度方式。具体请参见配置节点调度任务(实时作业)。 前提条件 已完成开发Pipeline作业或开发批处理单任务SQL作业。 当前用户已锁定该作业,否则需要通过“抢锁”锁定作业后才能继续开发作业。新建或导入作业后默认被当前用户锁定,详情参见编辑锁定功能。