检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
CDM是否支持增量迁移? 解决方案 CDM支持增量数据迁移。 利用定时任务配置和时间宏变量函数等参数,可支持以下场景的增量数据迁移: 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 详情请参见增量迁移。 父主题: 数据集成(CDM作业)
主机的SSH端口号。 Linux操作系统主机的默认登录端口为22,如有修改可通过主机路径“/etc/ssh/sshd_config”文件中的port字段确认端口号。 KMS密钥 是 通过KMS加解密数据源认证信息,选择KMS中的任一默认密钥或自定义密钥即可。 说明: 第一次通过DataArts
Flink作业资源包 是 选择Jar包。在选择Jar包之前,您需要先将Jar包上传至OBS桶中,并在“资源管理”页面中新建资源将Jar包添加到资源管理列表中,具体操作请参考新建资源。 Flink作业执行参数 否 Flink作业执行的程序关键参数,该参数由用户程序内的函数指定。多个参数间使用空格隔开。
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
通过获取DataArts Studio实例ID和工作空间ID获取。 在对应主题的操作栏,选择“添加订阅”。然后协议选择“短信”或“邮件”,输入接收告警通知的手机号或邮箱即可。 图2 添加订阅 购买规格增量包 规格增量包的购买方式类似,本例以购买“作业节点调度次数/天增量包”为例进行说明。
ID为1dd3bc…d93f0。 图2 获取实例ID和工作空间ID 在对应主题的操作栏,选择“添加订阅”。然后协议选择“短信”或“邮件”,输入接收告警通知的手机号或邮箱即可。 图3 添加订阅 购买作业节点调度次数/天增量包 单击已开通实例卡片上的“购买增量包”。 进入购买DataArts
"Action=ListUsers&Version=2010-05-08", "demo"); 给请求添加header头,内容为具体参数数据。如果有需要,添加需要签名的其他头域。 1 2 request->addHeader("x-stage", "RELEASE");
params.query_str = query_str; params.payload = payload; 给请求添加header头,内容为具体参数数据。如果有需要,添加需要签名的其他头域。 sig_headers_add(¶ms.headers, "x-stage", "RELEASE");
进入“开发API > API目录”或“开发API > API管理”页面,在待修改的API所在行,选择“更多 > 设置可见”。 在弹出的窗口中单击添加,填写项目ID并确认,即可设置此API在服务目录中额外对以该项目下的用户可见。 项目ID可以参考如下步骤进行获取: 注册并登录管理控制台。
择您已在OBS服务侧创建的桶。 请确保您已具备该参数所指定的OBS路径的读、写权限,否则系统将无法正常写日志或显示日志。 在数据开发作业中添加CDM Job节点,并关联已创建的CDM作业,如图4所示。 图4 关联CDM作业 在作业参数中配置业务需要的参数,如图5所示。 图5 配置作业参数
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
能成功执行。 否 MD5文件名后缀 校验CDM抽取的文件,是否与源文件一致,详细请参见MD5校验文件一致性。 .md5 QUERY参数 此字段为true时,则上传对象时使用的对象名为去掉query参数的字符。 否 父主题: 配置CDM作业源端参数
结束时间(<) “偏移量参数”选择为“时间范围”时配置。拉取数据的结束时间,不包含设置时间点的数据。 2020-12-20 20:00:00 字段分隔符 “数据格式”选择为“CSV格式”时配置。默认为空格,使用Tab键作为分隔符请输入“\t”。 , 记录分隔符 “数据格式”选择为“C
status 否 String 实例状态: SUCCESS:成功 RUNNING :运行中 CANCLE:取消 sort 否 String 排序字段: desc:创建时间按照降序展示 asc :创建时间按照升序展示 默认值:desc page 否 Integer 分页列表的起始页,默认值为0。取值范围大于等于0。
(DWS),简称DWS)作为数据湖底座,进行数据集成、开发、治理与开放。 云数据库服务 DataArts Studio支持将云数据库服务(Relational Database Service,简称RDS)作为作为数据源,进行数据集成、开发与开放。 云数据迁移服务 DataArts
执行脚本 功能介绍 该接口用以执行指定脚本,支持执行DWS SQL、DLI SQL、RDS SQL、Hive SQL、Spark SQL、Presto SQL、Shell、ClickHouse SQL、HetuEngine SQL、Python、Spark Python和Impala
参考创建DataArts Studio数据连接。 网络准备 数据库部署在本地IDC 参考数据库部署在本地IDC进行网络准备。 数据库部署在其他云 参考数据库部署在其他云进行网络准备。 数据库部署在华为云 参考数据库部署在华为云进行网络准备。 父主题: 数据集成(实时作业)
"body") 进行签名,执行此函数会在请求参数中添加用于签名的X-Sdk-Date头和Authorization头。然后为请求添加x-Authorization头,值与Authorization头相同。 1 2 sig.Sign(r)
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]