检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
运维概览 在“运维调度 > 运维概览”页面,用户可以通过图表的形式查看作业实例的统计数据,目前支持查看以下七种统计数据。 运行状态 通过时间和责任人可以筛选出今天的我的或者全部责任人的作业实例调度运行状态概览 通过时间和责任人可以筛选出昨天的我的或者全部责任人的作业实例调度运行状态概览
源端为对象存储 JSON样例 "from-config-values": { "configs": [ { "inputs": [ { "name": "fromJobConfig
key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。对于Hash分布表,在读/写数据时可以利用各个节点的IO资源,大大提升表的读/写速度。一般情况下大表(1000000条记录以上)定义为Hash表。 PreCombineField 该参数仅SPARK连接类型有效。
MySQL数据库的IP地址或域名。 - 端口 MySQL数据库的端口。 3306 数据库名称 MySQL数据库的名称。 sqoop 用户名 拥有MySQL数据库的读、写和删除权限的用户。 admin 密码 用户的密码。 - 使用本地API 使用数据库本地API加速(系统会尝试启用MySQL数据库的local_infile系统变量)。
MySQL数据库的IP地址或域名。 - 端口 MySQL数据库的端口。 3306 数据库名称 MySQL数据库的名称。 sqoop 用户名 拥有MySQL数据库的读、写和删除权限的用户。 admin 密码 用户的密码。 - 使用本地API 使用数据库本地API加速(系统会尝试启用MySQL数据库的local_infile系统变量)。
开发Python脚本 数据开发支持对Python脚本进行在线开发、调试和执行,开发完成的脚本可以在作业中调度运行(请参见开发Pipeline作业)。 Python脚本开发的样例教程请参见开发一个Python脚本。 前提条件 已新增Python脚本,请参见新建脚本。 已新建主机连接
查询发布包列表 功能介绍 用于查询发布包的列表信息。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。 URI URI格式 POST /v2/{project_id}/factory/release-packages 参数说明 表1 URI参数说明 参数名 是否必选
源端为FTP/SFTP JSON样例 "from-config-values": { "configs": [ { "inputs": [ { "name": "fromJobConfig
新建整库迁移作业 操作场景 CDM支持在同构、异构数据源之间进行整库迁移,迁移原理与新建表/文件迁移作业相同,关系型数据库的每张表、Redis的每个键前缀、Elasticsearch的每个类型、MongoDB的每个集合都会作为一个子任务并发执行。 整库迁移作业每次运行,会根据整库
OLTP 数据来源 多数据源 单数据源 数据标准化 非标准化Schema 高度标准化的静态Schema 数据读取优势 针对读操作进行优化 针对写操作进行优化 什么是数据湖? 在企业内部,数据是一类重要资产已经成为了共识。随着企业的持续发展,数据不断堆积,企业希望把生产经营中的所有相关
COPY模式:DWS专有的高性能批量入库模式,对性能有较高要求的强烈建议使用COPY模式。 批写最大数据量 50000 条 单批次写入DWS数据的条数,可根据表数据大小和作业内存使用适当调整。 定时批写时间间隔 3 秒 支持配置每批次数据写入DWS的时间间隔。 高级配置 - - 支持通过
获取数据密级 功能介绍 获取数据密级。 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/security/data-classification/secrecy-level 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是
源端为HDFS JSON样例 "from-config-values": { "configs": [ { "inputs": [ { "name": "fromJobConfig
开发Shell脚本 数据开发支持对Shell脚本进行在线开发、调试和执行,开发完成的脚本可以在作业中调度运行(请参见开发Pipeline作业)。 前提条件 已新增Shell脚本,请参见新建脚本。 已新建主机连接,该Linux主机用于执行Shell脚本,请参见主机连接参数说明。 连
COPY模式:DWS专有的高性能批量入库模式,对性能有较高要求的强烈建议使用COPY模式。 批写最大数据量 50000 条 单批次写入DWS数据的条数,可根据表数据大小和作业内存使用适当调整。 定时批写时间间隔 3 秒 支持配置每批次数据写入DWS的时间间隔。 高级配置 - - 支持通过
请重启CDM,重新加载MRS或者FusionInsight配置信息。 请重启CDM,重新加载MRS或者FusionInsight配置信息。 Cdm.0035 没有权限写文件,请参考详细消息: %s 请根据错误提示配置权限,再重试。 Cdm.0036 非法Datestamp或Date格式,请参考详细消息: %s
配置HDFS源端参数 作业中源连接为HDFS连接时,即从MRS HDFS、FusionInsight HDFS、Apache HDFS导出数据时,源端作业参数如表1所示。 表1 HDFS作为源端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 源连接名称 由用户下拉选择即可。
查询数据开发细粒度连接列表 功能介绍 查询数据开发细粒度连接列表(全量)。 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/security/fgac/dlf/datawarehouses 表1 路径参数 参数 是否必选 参数类型 描述 project_id
COPY模式:DWS专有的高性能批量入库模式,对性能有较高要求的强烈建议使用COPY模式。 批写最大数据量 50000 条 单批次写入DWS数据的条数,可根据表数据大小和作业内存使用适当调整。 定时批写时间间隔 3 秒 支持配置每批次数据写入DWS的时间间隔。 高级配置 - - 支持通过
将默认赋值。 自定义分页是指在创建API时,数据服务将不对SQL进行处理,分页逻辑需要在写SQL时由用户自定义。值得注意的是,为避免API查询数据量过大导致集群异常,自定义分页方式下必须在写SQL时添加分页逻辑。 如果已知需要读取的数据条数limitValue和需要跳过的数据条数