正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
置了超时时间,则该节点执行超时后,系统支持重试。 最大重试次数:根据实际需要选择,过多重试可能会导致下游作业运行时间被压缩。 重试间隔时间(秒):根据实际需要选择,过大重试间隔时间可能会导致下游作业运行时间被压缩。 图3 配置失败重试策略 单击“确定”,完成配置 配置作业失败告警
提交人名称。 task_type 否 integer 任务类型。 1:作业 2:脚本 3:资源 update_type 否 integer 变更类型,默认值1。 1:新增 2:修改 3:删除 表6 发布包审批信息的参数说明 参数名 是否必选 参数类型 说明 user_id 否 String
进入“我的凭证”页面,选择“访问密钥 > 新增访问密钥”,如图8所示。 图8 单击新增访问密钥 单击“确定”,根据浏览器提示,保存密钥文件。密钥文件会直接保存到浏览器默认的下载文件夹中。打开名称为“credentials.csv”的文件,即可查看访问密钥(Access Key Id和Secret
脚本调试无误后,单击“保存”保存该脚本,脚本名称为“top_like_product”。单击“提交”,提交脚本版本。在后续开发并调度作业会引用该脚本。 脚本保存完成且运行成功后,您可通过如下SQL语句查看top_like_product表数据。您还可以参考图3,下载或转储表数据。
见主机连接参数说明。 连接主机的用户需要具有主机/tmp目录下文件的创建与执行权限。 Shell或Python脚本可以在该ECS主机上运行的最大并发数由ECS主机的/etc/ssh/sshd_config文件中MaxSessions的配置值确定。请根据Shell或Python脚本
步骤1:数据准备 使用DataArts Studio前的准备 如果您是第一次使用DataArts Studio,请参考购买并配置DataArts Studio章节完成注册华为账号、购买DataArts Studio实例(DataArts Studio企业版)、创建工作空间等一系列
连接MRS上的Kafka数据源时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 MRS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
文件类迁移,文件的个数,有没有单文件超过TB级文件 本示例的CSV文件仅1个,未超过TB级 - 3 数据开发 是否需要作业编排调度? 是 - 编排调度会涉及哪些服务,例如MRS、DWS、CDM等? 本示例涉及DataArts Studio数据集成和数据质量、MRS Hive 了解作业的场景,用于进一步调查平台能力与客户场景匹配度
ests”库。 pip install requests 如果pip安装requests遇到证书错误,请下载并使用Python执行此文件,升级pip,然后再执行以上命令安装。 获取并安装IntelliJ IDEA,如果未安装,请至IntelliJ IDEA官方网站下载。 已在IntelliJ
Studio实例卡片上,单击选择“更多 > 告警阈值”。 图1 告警阈值 配置告警阈值,取值范围在0-100之间,设置为0表示不告警。当配额使用量超出设置的告警阈值时,会触发SMN短信或邮件告警。 进入消息通知服务SMN控制台,单击进入“主题管理 > 主题”,找到主题名称“DGC_Topic_Manager_
自定义分页的脚本/MyBatis方式API是在创建API时将分页逻辑写到取数SQL中,因此不支持在调用时修改分页设置。 (可选)默认情况下,系统会根据排序参数信息给出默认排序情况,自定义排序默认为升序。如果需要修改排序情况,可以修改如下参数设置。其中排序参数描述pre_order_by
通过KMS加解密数据源认证信息,选择KMS中的任一默认密钥或自定义密钥即可。 说明: 第一次通过DataArts Studio或KPS使用KMS加密时,会自动生成默认密钥dlf/default或kps/default。关于默认密钥的更多信息,请参见什么是默认密钥。 绑定Agent 是 RDS类
进入“我的凭证”页面,选择“访问密钥 > 新增访问密钥”,如图1所示。 图1 单击新增访问密钥 单击“确定”,根据浏览器提示,保存密钥文件。密钥文件会直接保存到浏览器默认的下载文件夹中。打开名称为“credentials.csv”的文件,即可查看访问密钥(Access Key Id和Secret
终止:如果对账作业名称有重复,则全部导入失败。 跳过:如果对账作业名称有重复,会忽略后继续导入。 覆盖:如果对账作业名称有重复,会覆盖现有同名作业。 如果选择覆盖,请在导入文件前,停止所有作业调度,否则调度中的作业会导致上传文件失败。 单击“上传文件”,选择准备好的数据文件。 可通过如下两种方式填写数据文件:
SOFTLY:一般重启。 默认值为“IMMEDIATELY”。强制重启业务进程会中断,并重启集群的虚拟机。 restartLevel 否 String 重启级别: SERVICE:重启服务。 VM:重启虚拟机。 默认值为“SERVICE”。 type 是 String 集群节点类型,只支持“cdm”。
终止:如果质量作业名称有重复,则全部导入失败。 跳过:如果质量作业名称有重复,会忽略后继续导入。 覆盖:如果质量作业名称有重复,会覆盖现有同名作业。 如果选择覆盖,请在导入文件前,停止所有作业调度,否则调度中的作业会导致上传文件失败。 单击“上传文件”,选择准备好的数据文件。 可通过如下两种方式填写数据文件:
h:mm:ssZ。 name String 实例名称。 id String 实例ID。 flavor flavor object 节点的虚拟机规格,请参见flavor参数说明。 datastore Datastore object 集群信息,请参见datastore参数说明。 dbuser
步至目标数据库中,实现目标库实时保持和源库的数据对应。 实时处理集成作业功能当前在北京四、上海一、广州、新加坡已上线(其他region后续会逐步放开,敬请期待!),但需申请白名单后才能使用。如需使用该特性,请联系客服或技术支持人员。 功能概述 数据集成的实时同步包括实时读取、转换
终止当前作业执行计划:终止当前作业运行,当前作业实例状态显示为“失败”。如果是周期调度作业,后续周期调度会正常运行。 忽略失败,作业结果设为成功:忽略当前节点失败,当前作业实例状态显示为“运行成功”。如果是周期调度作业,后续周期调度会正常运行。 配置作业参数 作业参数为全局参数,可用于作业中的任意节点。操作方法如下:
其他参数保持默认即可。 (可选)配置“删除作业运行完成”节点。 这里的删除作业可根据实际需要选择。由于DLF是通过周期创建CDM作业来实现增量迁移,因此会累积大量的作业在CDM集群上,所以可在迁移成功后,删除已经运行成功的作业。如果您需要删除,在查询CDM作业状态的节点后面,添加删除CDM作业