检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
业、数据架构表、数据开发脚本、数据开发作业、数据质量作业等),搬迁到新建的工作空间中。 操作前准备 已创建新的工作空间,新建工作空间的用户需要具备DAYU Administrator或Tenant Administrator权限。 执行数据搬迁的用户,至少应具备新旧两个工作空间的开发者权限。
标签,不支持被重复迁移。 待导入的资源应为通过导出获取的zip文件,导入时系统会进行资源校验。 由于安全原因,导出连接时没有导出连接密码,需要在导入时自行输入。 仅企业版支持数据目录(分类、标签、采集任务)导出,专家版暂不支持。 导入文件时,OBS和本地方式均限制文件大小不超过10MB。
请检查资源描述。 400 DLF.6271 Each user can create only one DLI connection. 每个用户只能创建一个DLI连接。 请检查DLI连接。 400 DLF.6309 The connection name has been used by another
作业名称不得包含中文字符、超出长度限制等。如果作业名称不符合规则,将导致提交MRS作业失败。 Jar包资源 是 选择Jar包。在选择Jar包之前,您需要先将Jar包上传至OBS桶中,并在“资源管理”页面中新建资源将Jar包添加到资源管理列表中,具体操作请参考新建资源。 Jar包参数 否 Jar包的参数。
审批人数据来源于工作空间中添加的人。 图1 管理审批人 待我审批 选择“数据权限 > 审批中心”,单击“待我审批”页签。 在此页面查看当前需要用户审批的申请单。 单击操作栏的“审批”,查看申请单的详细信息并进行审批。 填写审批意见后,根据实际情况同意或拒绝该申请。 我已审批 选择“数据权限
Client节点的参数。 表1 属性参数 参数 是否必选 说明 数据连接 是 选择管理中心中已创建的MRS Kafka连接。 Topic名称 是 选择需要上传数据的Topic,如果有多个partition,默认发送到partition 0。 节点名称 是 节点名称,可以包含中文、英文字母、数
个字符。 OBS路径 是 创建OBS桶或目录的路径。 创建桶:在“//”后输入OBS桶名称,OBS桶名称不允许重名。 创建OBS目录:选择需要创建目录的路径,在路径后输入“/目录名”,目录名不允许重名。 表2 高级参数 参数 是否必选 说明 节点执行的最长时间 是 设置节点执行的
数据安全数据,因此删除的纳管角色数据不会进入回收站。 权限集和动态脱敏策略被删除进入回收站后,将同步状态将统一置为未同步,从回收站还原后也需要手动进行同步才能生效。 回收站中的数据最多保存30天,删除时间超过30天的数据将被自动清理。 单实例下回收站中的权限集和动态脱敏策略分别最
是 节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 图片路径 是 需要识别的图片在OBS上的路径。 识别类型 是 可识别的图片类型, 当前仅支持通用文字识别。可支持扫描文件、电子文档、书籍、票据和表单等多种场景的文字识别。
值分隔符号,当“valueStoreType”为“STRING”时此参数有效,默认值为:“\tab”。 fromJobConfig.columnList 否 String 需要抽取的字段列表,字段名之间使用“&”分割,例如:“id&gid&name”。 fromJobConfig.formats 否 数据结构 时
所需最低版本 业务能力 适用场景 免费版:基于DLI的电商BI报表数据开发流程 DLI 免费版 数据开发 对数据全生命周期管理的流程诉求较低,需要全托管的大数据调度能力,适用于开发者试用、小规模验证等场景。 初级版:基于DWS的电影评分数据集成与开发流程 DWS 初级版 数据集成+数据开发
配置作业定时自动执行,“重复周期”为1天。 这样每天就可以把昨天生成的文件都导入到目的端目录,实现增量同步。 文件增量迁移场景下,“路径过滤器”的使用方法同“文件过滤器”一样,需要路径名称里带有时间字段,这样可以定期增量同步指定目录下的所有文件。 时间过滤 参数位置:在创建表/文件迁移作业时,如果源端数据源为文件类型
关闭该功能时,该集群中的迁移作业、连接信息可以用户共享,华为账号下的所有拥有相应权限的IAM用户可以查看、操作迁移作业和连接。 注意,用户隔离关闭后需要重启集群VM才能生效。 最大抽取并发数:限制作业运行的总抽取并发数,如果当前所有作业总并发数超出限制,超出部分将排队等待。 注意,最大抽取
配置作业定时自动执行,“重复周期”为1天。 这样每天就可以把昨天生成的文件都导入到目的端目录,实现增量同步。 文件增量迁移场景下,“路径过滤器”的使用方法同“文件过滤器”一样,需要路径名称里带有时间字段,这样可以定期增量同步指定目录下的所有文件。 时间过滤 参数位置:在创建表/文件迁移作业时,如果源端数据源为文件类型
SQLServer默认端口:1433 PostgreSQL默认端口:5432 数据库名称 配置为要连接的数据库名称。 dbname 用户名 待连接数据库的用户。该数据库用户需要有数据表的读写权限,以及对元数据的读取权限。 cdm 密码 用户名密码。 - 使用Agent Agent功能待下线,无需配置。 - Agent
时间,判断任务能否在预警时间前运行成功。 设置基线承诺时间和预警余量的详细信息请参见基线管理。 如何合理的配置基线承诺时间和预警余量 用户需要根据基线上任务历史一段时间内的最晚完成时间,将基线承诺时间设置在基线上任务最晚完成时间之后,并预留一定的预警余量。以保证在收到任务异常的预警信息后能够在承诺时间内完成异常处理。
"fd_value" : "" }, { "fd_name" : "description", "fd_value" : "这是一个测试用例。" } ] } 响应示例 状态码:200 Success { "data" : { "value" : {
每个企业有哪些数据资产能入表,怎么开展相关工作,成为各企业的核心问题。能够入表的数据资源必须满足很多要求,首先,必须是企业合法拥有的数据,需要做完整合规授权的检查。第二是精确可计量。第三,要确保这些数据在企业生产经营过程中,创造了经济利益价值。比如,很多企业用数据做了统计分析报表
”,进入审核中心页面。 在审核中心页面,可以查看待我审核、已审核和我的申请。 图2 审核中心 待我审核 审核人在待我审核页面,可以查看当前需要审批的对象并进行审核。系统支持批量审核。 可以通过“提交时间”进行筛选,查看所选时间段内已提交的待我审核的对象。 可以通过“对象”或“创建
说明 workspace 否 String 工作空间id。 如果不设置该参数,默认查询default工作空间下的数据。 如果需要查询其他工作空间的数据,需要带上该消息头。 X-Auth-Token 是 String IAM Token 最小长度:0 最大长度:4096 响应参数 表2