检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点配置:集群规格、CPU和内存配置等信息。 网络信息:网络配置。 支持修改集群的以下配置: 消息通知:CDM的迁移作业(目前仅支持表/文件迁移的作业)失败时,或者EIP异常时,会发送短信或邮件通知用户。该功能产生的消息通知不会计入收费项。 用户隔离:控制其他用户是否能够查看、操作该集群中的迁移作业和连接。
新增访问密钥”,如图3所示。 图3 单击新增访问密钥 单击“确定”,根据浏览器提示,保存密钥文件。密钥文件会直接保存到浏览器默认的下载文件夹中。打开名称为“credentials.csv”的文件,即可查看访问密钥(Access Key Id和Secret Access Key)。 说明:
新增访问密钥”,如图1所示。 图1 单击新增访问密钥 单击“确定”,根据浏览器提示,保存密钥文件。密钥文件会直接保存到浏览器默认的下载文件夹中。打开名称为“credentials.csv”的文件,即可查看访问密钥(Access Key Id和Secret Access Key)。 说明:
支持用户为Hudi表添加简单的附加字段。 支持用户配置Hudi表的分区信息,包括定义“无分区”“时间分区”“自定义分区”Hudi表。 支持用户按需定义全局Hudi表配置,同时支持差异化定义单张Hudi表配置。 开箱即用,内置Hudi表的一些默认配置,如compaction行为、表类型等。
单击选择节点是否记录脏数据。 是:记录脏数据 否:不记录脏数据 说明: 脏数据即Bad Records,由于数据类型不兼容、数据为空或者格式不兼容而导致无法加载到DLI中的记录归类为Bad Records。 选择记录脏数据后,Bad Records不会导入到目标表,而是导入到OBS脏数据路径中。
期。 order_id String 订单ID。 order_type String 订单类型,PERIOD:包周期、ON_DEMAND:按需。 period_type String 集群订购周期类型。 instance_status String 集群状态。 node_num Integer
期。 order_id String 订单ID。 order_type String 订单类型,PERIOD:包周期、ON_DEMAND:按需。 period_type String 集群订购周期类型。 instance_status String 集群状态。 node_num Integer
选择敏感数据所在的数据库。 *数据表 选择敏感数据所在的数据表。 单击“确定”,完成动态水印策略创建。 相关操作 水印提取:获得从数据开发下载的动态水印CSV数据文件后,参考水印提取进行水印溯源。 配置策略:在动态水印页面,单击对应任务操作栏中的“配置”,即可配置动态水印策略。 编辑策略状态:新增的水印
管理 > 配置”。 单击“环境变量”,在“环境变量配置”页面,选择“导入”。 在导入环境变量对话框中,选择已上传至OBS或者本地的环境变量文件,以及重命名策略。 图1 导入环境变量 导出环境变量 参考访问DataArts Studio实例控制台,登录DataArts Studio管理控制台。
更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 单击“添加文件”,选择编辑完成的导入模板。 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 单击“关闭”。 导出 可通过导出的方式将衍生指标导出到本地。
保存模板后,在新建数据标准时需要设置此处模板中所选中选项的参数值。 首次进入数据架构的数据标准页面,可选项默认选取“数据长度”和“描述”,其他选项请按需求勾选。 添加自定义项时,支持同时添加中文与英文的自定义项。 图1 标准模板管理 功能配置 功能配置用于自定义数据架构中的各项功能。 在DataArts
限。 技术资产数量增量包: 不同版本的DataArts Studio实例,提供了不同的技术资产数量规格限制。该规格是以数据目录中表和OBS文件的数量计算的,您可以在新商业模式的DataArts Studio实例卡片上通过“更多 > 配额使用量”查看使用量。当您的技术资产数量接近或
f85c 通过SDK调用API 解压1中获取的Java SDK包,并在Eclipse中导入SDK工程。 导入成功后,打开main.java文件,修改如下图红框所示的内容: 图4 修改main.java 如下参数设置API的请求方法和调用地址,可参考5进行获取。 注意如果入参中包含
更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 单击“添加文件”,选择编辑完成的导入模板。 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 单击“关闭”退出该页面。 导入LDM 导入LDM模型
在“连接管理”页签中,单击“新建连接”,分别创建Oracle数据连接和MRS Hive数据连接,详情请参见新建Oracle数据连接和新建MRS Hive数据连接。 在“表/文件迁移”页签中,单击“新建作业”,创建数据迁移作业。 配置Oracle源端参数、MRS hive目的端参数,并配置传递参数,参数形式为 ${
SQL目前支持的MRS集群版本是MRS 3.2.0-LTS.1及以上版本。 迁移类型 当“模式”为“单任务Data Migration”时,才需要配置。 默认为表/文件迁移。 选择目录 选择作业所属的目录,默认为根目录。 责任人 填写该作业的责任人。 作业优先级 选择作业的优先级,提供高、中、低三个等级。
作为实例的公网入口。 安全组 安全组类似防火墙,控制谁能访问实例的指定端口,以及控制实例的通信数据流向指定的目的地址。安全组入方向规则建议按需开放地址与端口,这样可以最大程度保护实例的网络安全。 专享版实例绑定的安全组有如下要求: 入方向:如果需要从公网调用API,或从其他安全组
获取CDM作业的JSON 修改JSON 创建DLF作业 获取CDM作业的JSON 进入CDM主界面,创建一个DWS到OBS的表/文件迁移作业。 在CDM“作业管理”界面的“表/文件迁移”页签下,找到已创建的作业,单击作业操作列的“更多 > 查看作业JSON”,如图1所示。 您也可以使用其它已创建好的CDM作业JSON。
配置相关策略来控制用户对这些组件的访问权限 。 MapReduce服务(MRS Hudi) Hudi是一种数据湖的存储格式,在Hadoop文件系统之上提供了更新数据和删除数据的能力以及消费变化数据的能力。支持多种计算引擎,提供IUD接口,在HDFS的数据集上提供了插入更新和增量拉取的流原语。
uris配置项。例如:thrift://host-192-168-1-212:9083 IP与主机名映射 否 使用集群配置为否时,是必选项。 如果Hadoop配置文件使用主机名,需要配置IP与主机的映射。格式:IP与主机名之间使用空格分隔,多对映射使用分号或回车换行分隔。 KMS密钥 否 使用集群配置为是时,是必选项。