检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当源端为Kafka时,如果DLI导入前清空数据,则不支持INSERT_OVERWRITE。 TRUNCATE 分区 “导入前清空数据”设置为“是”时,呈现此参数。 填写分区信息后,表示清空该分区的数据。 year=2020,location=sun 新增dli-trans*内部临时桶授权策略 登录统一身份认证服务IAM控制台。
参数类型 描述 error_msg String 返回的错误信息。 error_code String 返回的错误码。 状态码: 500 表5 响应Body参数 参数 参数类型 描述 error_msg String 返回的错误信息。 error_code String 返回的错误码。
参数类型 描述 error_msg String 返回的错误信息。 error_code String 返回的错误码。 状态码: 500 表6 响应Body参数 参数 参数类型 描述 error_msg String 返回的错误信息。 error_code String 返回的错误码。
多个数据段联合做主键的场景,建议设置所有主键作为分布列。 在没有主键的场景下,如果没有选择分布列,DWS会默认第一列作为分布列,可能会有数据倾斜风险。 脱敏 隐藏字符串中的关键信息,例如要将“12345678910”转换为“123****8910”,则配置如下: “起始保留长度”为“3”。 “结尾保留长度”为“4”。
作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。 前往目的端数据源查看数据迁移的入库时间。 父主题: 数据迁移进阶实践
作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。 前往目的端数据源查看数据迁移的入库时间。 父主题: 关键操作指导
删除:在参数值文本框后方,单击删除环境变量。 使用方法 当前配置好的环境变量支持如下两种使用方法: ${环境变量名} #{Env.get(“环境变量名”)} 操作示例 背景信息: 在数据开发模块系统中已创建一个作业“test”。 在环境变量中已新增一个变量,“参数名”为“job”,“参数值”为“123”。 打开作
链路多样性:部分链路支持全量和增量同步,部分链路支持分库分表。 可维护性:支持作业监控和日志查看,方便运维人员进一步定位。 易用性:长界面更易操作,用户只需配置必要信息,学习成本减低。 基本流程 父主题: 实时处理集成作业开发
是 Boolean true或者false msg 是 String success rows 是 List<row> 包含若干补数据实例信息,参考表3。 表3 row数据结构说明 参数名 是否必选 参数类型 说明 job_list 是 List<String> 补数据作业名称,
在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 选择“作业标签”,进入“作业标签管理”页面。 单击“导入作业标签”,弹出“导入作业标签”对话框。 配置导入信息。 文件位置:支持从本地导入和从OBS导入两种方式。 选择文件:本地导入的文件选择本地路径;OBS导入的文件选择OBS桶路径。 建议通过导
多个数据段联合做主键的场景,建议设置所有主键作为分布列。 在没有主键的场景下,如果没有选择分布列,DWS会默认第一列作为分布列,可能会有数据倾斜风险。 脱敏 隐藏字符串中的关键信息,例如要将“12345678910”转换为“123****8910”,则配置如下: “起始保留长度”为“3”。 “结尾保留长度”为“4”。
status_code String 状态码。 error_code String 错误码。 error_message String 错误信息。 detail String 日志详情。 in_flow_size Long 输入流量大小。 out_flow_size Long 输出流量大小。
Studio实例卡片上通过“更多 > 配额使用量”查看使用量。当您的数据模型数量接近或达到该规格时,建议购买数据模型数量增量包,以避免新建数据模型受限。 背景信息 不同版本的DataArts Studio实例的规格请参见版本规格说明。 您可以在DataArts Studio实例卡片上,通过“更多 >
选择已上传到OBS中的依赖Jar包。“类型”为“jar”或“pyFile”时,配置该参数。 选择目录 是 选择资源所属的目录,默认为根目录。 描述 否 资源的描述信息。 编辑资源 资源新建完成后,用户可以根据需求修改资源的参数。 在数据开发主界面的左侧导航栏,选择“配置管理 > 资源管理”。 在资源的“
c。此处的“参数”需要在Python语句中引用,否则配置无效。 交互式输入 否 填写交互式参数,即执行Python语句的过程中,需要用户输入的交互式信息(例如密码)。交互式参数之间以空格分隔,Python语句根据交互情况按顺序读取参数值。 节点名称 是 节点名称,只能包含英文字母、数字、中
"error_code":"DLF.0100", "error_msg":"The job not found" } 错误码如表1所示。 表1 错误码 状态码 错误码 错误信息 描述 处理措施 400 DLF.0100 The job does not exist. 作业不存在。 请检查作业是否存在。 400 DLF
取值范围[2, 271],默认值 : 60,单位为天。 超期天数,最小需配置2天,即至少需要等待2天,才可取消未运行的作业实例。 备注 输入备注信息。 单击“CDM集群”,配置所选作业的CDM Job节点的CDM集群。 在左侧下拉框中选择待修改的CDM集群名称,右侧下拉框中选择要设置的CDM集群名称。
程中自动切换对应的数据湖。因此您需要准备两套数据湖服务(即两个集群),且两套数据湖服务的版本、规格、组件、区域、VPC、子网以及相关配置等信息,均应保持一致。 例如,当您的数据湖服务为MRS集群时,需要准备两套MRS集群,且版本、规格、组件、区域、VPC、子网等保持一致。如果某个
c。此处的“参数”需要在Shell脚本中引用,否则配置无效。 交互式输入 否 填写交互式参数,即执行Shell脚本的过程中,需要用户输入的交互式信息(例如密码)。交互式参数之间以空格分隔,Shell脚本根据交互情况按顺序读取参数值。 read -p语法的使用示例: read -p “输入参数1和参数2”变量1
s_hive_link,选择数据库demo_dwr_db,然后输入脚本内容。 图1 编辑脚本 该脚本用于将付款方式、费率代码、供应商的基本信息写入到相应的维度表中。脚本内容如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17