检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 单击“保存”完成创建连接。 创建迁移作业 选择“表/文件迁移 > 新建作业”,开始创建从Oracle导出数据到DWS的任务。 图4 创建Oracle到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。
系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 单击“添加文件”,选择提前准备好的.pdm格式的物理模型。单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。单击“关闭”退出该页面。 导出 在物理表列表中,
String obs公共配置。 total_row_count String 总行数。 fields_name Array of strings 文件列表。 table_name String 表名。 sample String 样本。 update_date String 修改时间。 row_count
到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 单击“保存”完成创建连接。 创建迁移作业 选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到DWS的任务。 图4 创建MySQL到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。
(fd653968-864b-45f6-9842-2b125d2dbfb7)查询导出结果,查询中返回的是导出状态,导出结束后返回的是二进制文件。 GET https://{endpoint}/v2/{project_id}/design/export-result?uuid=fd
获取操作结果 功能介绍 获取批量操作的结果,如逻辑模型转物理模型和逆向数据库操作。 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/design/operation-results 表1 路径参数 参数 是否必选 参数类型 描述 project_id
SIMPLE:非安全模式选择Simple鉴权。 KERBEROS:安全模式选择Kerberos鉴权。 KERBEROS IP与主机名映射 输入IP和主机名。 如果配置文件使用主机名,需要配置所有IP与主机的映射,多个主机之间使用空格进行分隔。 IP:10.3.6.9 主机名: hostname01 HBase版本
败。 STANDALONE IP与主机名映射 运行模式选择“EMBEDDED”、“STANDALONE”时,该参数有效。 如果HDFS配置文件使用主机名,需要配置IP与主机的映射。格式:IP与主机名之间使用空格分隔,多对映射使用分号或回车换行分隔。 10.1.6.9 hostname01
数据连接唯一标识名称。 obs_folder_count Integer obs目录数。 obs_file_count Integer obs文件数。 css_index_count Integer css索引数。 css_index_field_count Integer css 索引字段数目。
对比所下载SDK包的SHA256值和命令示例中的SHA256值。如果一致,则表示下载过程不存在篡改和丢包。 生成认证信息 解压SDK包,双击打开其中的“demo.html”文件,输入如下参数后,单击“Send request”查看返回值。 Key、Secret:API授权应用的AppKey和AppSecret,可参考获取APP和API信息获取。
配置输出处理算子 保存API工作量,然后调试并发布到集群。则后续调用者就可以通过调用API工作流中的入口API,实现普通API取数结果保存在EXCEL文件中。 开发API工作流2:数据请求依赖多个数据API 在电子商务平台的场景中,某部门需要根据用户所在地区的不同,提供不同的信息和服务:如果
Array of links objects 连接列表,请参见links数据结构说明。 fromTo-unMapping String 表/文件迁移不支持哪些数据源迁移到哪些数据源。 batchFromTo-mapping String 整库迁移支持哪些数据源迁移到哪些数据源。 表4
技术资产数量增量包用于扩充技术资产数量配额。 不同版本的DataArts Studio实例,默认提供了不同的技术资产数量规格限制。该规格是以数据目录中表和OBS文件的数量之和计算的。您可以在新版本模式的DataArts Studio实例卡片上通过“更多 > 配额使用量”查看该配额情况。 当您的技术资产
数据开发组件:作业,作业目录,脚本,脚本目录和资源。 数据质量组件:质量作业和对账作业。 数据目录组件:技术资产中的表(Table)和文件(File)类型资产,以及元数据采集任务。 数据服务组件:数据服务集群,API和APP。 数据安全组件:敏感数据发现任务,脱敏策略,静态脱敏任务和数据水印任务。
Storm Storm的Topology权限: Submit Topology:提交拓扑 File Upload:上传文件 File DownLoad:下载文件 Kill Topology:删除拓扑 Rebalance:Rebalance权限 Activate:激活权限 Deactivate:去激活权限
的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模、维度建模(仅支持星形模型)和数据集市这三种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 单工作空间中创建各类对象的配额如下: 主题5000个。 数据标准目录500条,个数20000个。
数据开发组件:作业,作业目录,脚本,脚本目录和资源。 数据质量组件:质量作业和对账作业。 数据目录组件:技术资产中的表(Table)和文件(File)类型资产,以及元数据采集任务。 数据服务组件:数据服务集群,API和APP。 数据安全组件:敏感数据发现任务,脱敏策略,静态脱敏任务和数据水印任务。
更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 单击“添加文件”,选择编辑完成的导入模板。 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 单击“关闭”。 导出 可通过导出的方式将汇总表导出到本地。
您可以通过使用集群配置,简化Hadoop连接参数配置。 否 创建样例作业 单击CDM集群“操作”列的“作业管理”,进入作业管理界面。 进入“表/文件迁移”页签,单击“新建作业”创建MySQL第一个分表mail001到MRS Hive目标表mail的数据集成作业,具体如下图所示。 图2 新建作业
集群对象,请参见cluster参数说明。 auto_remind 否 Boolean 选择是否开启消息通知。开启后,支持配置20个手机号码或邮箱,作业(目前仅支持表/文件迁移的作业)失败时、EIP异常时会发送短信或邮件通知用。 phone_num 否 String 接收消息通知的手机号码。 email 否 String