检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据开发组件中不同数据源的SQL脚本转储支持的单次最大记录值不同,详见下载或转储脚本执行结果。此处配置的记录值上限可参考此规格进行配置。 *授权对象 选择需要授权的用户。 指定用户:可以配置为指定的用户以及用户组。 说明: 每个用户或用户组只能有一条下载权限策略,但与全部成员的策略不冲突。
为dli.sql.shuffle.partitions的值只能为正整数。 如果作业和脚本中同时配置了同名的参数,作业中配置的值会覆盖脚本中的值。 说明: 用户定义适用于此作业的配置参数。目前支持的配置项: dli.sql.autoBroadcastJoinThreshold(自动
因此作业抽取并发数和集群最大抽取并发数参数设置为适当的值可以有效提升迁移速度。 作业抽取并发数的配置原则如下: 迁移的目的端为文件时,CDM不支持多并发,此时应配置为单进程抽取数据。 表中每行数据大小为1MB以下的可以设置多并发抽取,超过1MB的建议单线程抽取数据。 作业抽取并发数可参
已知单线程flush的FileGroup的数据 = 单次Commit的FileGroup数量 / 作业并发数。 单线程flush的FileGroup的数量 <= 5,推荐值2。 单线程flush的FileGroup的数量 <= 10,推荐值5。 单线程flush的FileGroup的数量 <= 25,推荐值10。
已知单线程flush的FileGroup的数据 = 单次Commit的FileGroup数量 / 作业并发数。 单线程flush的FileGroup的数量 <= 5,推荐值2。 单线程flush的FileGroup的数量 <= 10,推荐值5。 单线程flush的FileGroup的数量 <= 25,推荐值10。
<=\()(-*\d+?)(?=,), 匹配对应SQL结果为 (1,"error message") ,匹配到的结果为 "1"。 失败匹配值 - 当匹配成功的内容等于设置值时,该节点执行失败。 节点名称 是 默认显示为SQL脚本的名称,支持修改。规则如下: 节点名称,可以包含中文、英文字母、
SSS'Z',-1,DAY)}")}},表示查找ts字段中大于时间宏转换后的值,即只导出昨天以后的数据。 参数配置后,CDM就只导出前一天内的数据,再将该作业配置为每天0点执行一次,就可以增量同步每天新生成的数据。 父主题: 增量迁移原理介绍
Studio实例的用户,系统将默认为其创建一个默认的工作空间“default”,并赋予该用户为管理员角色。您可以使用默认的工作空间,也可以参考本章节的内容创建一个新的工作空间。 DataArts Studio实例内的工作空间作为成员管理、角色和权限分配的基本单元,包含了完整的DataArts
作业实例重跑参数,当重跑当前作业及其上下游作业实例类型时,需要指定该参数的重跑信息,重跑当前实例类型不需要指定该参数。 concurrent 否 Integer 并行度,当重跑当前作业及其上下游作业实例类型时,该参数有效,默认值为1,取值范围为1到128。 表4 task_retrys 参数 是否必选
Client节点,将EL表达式直接写在要发送的数据中,单击“测试运行”,然后在节点上右键查看日志,日志中会把EL表达式的值打印出来。 使用Kafka Client节点。 前提:您需要具备MRS集群,且集群有Kafka组件。 方法:选择Kafka Client节点,将EL表达式直接写在要发送的数据中,单击“测
选择执行Python语句的主机。需确认该主机配有用于执行Python脚本的环境。 须知: Shell或Python脚本可以在该ECS主机上运行的最大并发数由ECS主机的/etc/ssh/sshd_config文件中MaxSessions的配置值确定。请根据Shell或Python脚本的调度频率合理配置MaxSessions的值。
instanceId 是 String 执行脚本的实例ID。在查询脚本实例执行结果使用instanceId获取执行结果。 请求示例 执行脚本名称为dws_sql的脚本,脚本中参数tableVar的值为citys,脚本中参数time的值为2019-07-25。 POST /v1/b3
创建CDM迁移作业时,支持设置该作业的抽取并发数。 该参数设置为适当的值可以有效提升迁移速度,过小则会限制迁移速度,过大则会导致任务过载、迁移失败。 迁移的目的端为文件时,CDM不支持多并发,此时应配置为单进程抽取数据。 表中每行数据大小为1MB以下的可以设置多并发抽取,超过1MB的建议单线程抽取数据。
Studio和沃土是什么关系? 华为沃土数字平台是使能行业客户数字化转型的平台参考架构。以云为基础,通过优化整合新ICT技术,融合数据,使能客户实现业务协同与敏捷创新。 DataArts Studio作为沃土平台数据使能模块,帮助接入沃土数字平台的企业更好的管理使用数据。 父主题: 咨询与计费
0000表示请求处理成功。 error_msg String 错误信息。 data Object 返回的数据信息。 请求示例 停止ID为1317151269261262848、1317151258234322945的实例。 POST https://{endpoint}/v2/{project_id
0/19),子网选择中转VPC的子网(例如10.186.0.0/24),其余参数可参考购买公网NAT网关。 图8 配置公网NAT网关 为公网NAT网关添加SNAT规则。 为新建的NAT网关添加SNAT规则,才能实现资源组网段下的主机与Internet互相访问。请单击新建的公网NAT网关名称进
选择运行对账作业的引擎。仅数据连接为DLI、Hive或Hetu类型时,此参数有效,输入队列名称。 当连接类型为Hetu,规则类型为除了库级以外的所有系统模板,自定义模板,自定义规则时,队列名称指的是Hetu引擎的资源队列名称。查看Hetu引擎的资源队列名称,需要登录MRS的FusionInsight
了默认值,请根据实际业务数据的格式设置各项参数。 在本示例中,根据准备数据源中的样例数据格式,需注意以下参数的设置,其他参数经过一一确认均保留默认值即可。 字段分隔符:默认值为逗号,本示例保留默认值即可。 前N行为标题行:设置为“是”,本示例首行是标题行。 标题行数:配置为1。
String 时间单位。 枚举值: HOUR:小时为单位 DAY:天为单位 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token,使用Token认证时必选。通过调用IAM服务的“获取用户Token”接口获取
关系型数据库的每张表、Redis的每个键前缀、Elasticsearch的每个类型、MongoDB的每个集合都会作为一个子任务并发执行。 整库迁移作业每次运行,会根据整库作业的配置重建子任务,不支持修改子任务后再重新运行主作业。 支持整库迁移的数据源请参见支持的数据源。 约束限制