正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择所需要的衍生指标,此处仅展示有时间限定衍生指标。系统会利用时间限定自动计算环比增长率。 在页面下方,单击“试运行”按钮,然后在弹出框中单击“试运行”按钮,测试所设置的复合指标是否可以正常运行。 如果试运行失败,请根据错误提示定位错误原因,将配置修改正确后,再单击“试运行”按钮进行重试。 如果试运行成功,单击“发布”,提交发布审核。
的“开始测试”,可进入API测试环节。 填写参数值,单击“开始测试”,即可在线发送API请求,在右侧可以看到API请求详情及返回内容。 测试过程中,当数据服务API查询返回值超过默认100秒无结果时,会报超时错误。 如果测试失败,请仔细查看错误提示并做相应的修改重新测试。 完成A
务诉求,并结合DataArts Studio服务的能力进行业务流程设计。 需求分析。分析业务情况,明确业务诉求,并提炼出数据治理流程的实现框架,支撑具体数据治理实施流程的设计。 业务调研。明确DataArts Studio服务的能力边界,并分析后续的业务负载情况。 流程设计。以实际业务情况结合DataArts
obs://obs-tongji/python/out为输出参数文件夹的路径,并且会在OBS桶中自动创建该目录(如已存在out目录,会报错)。 单击“测试运行”,执行该脚本作业。 待测试完成,执行“提交”。 在“作业监控”界面,查看作业执行结果。 图4 查看作业执行结果 作业日志中显示已运行成功 图5 作业运行日志
S Kafka、云搜索服务、分库、神通数据库(ST)。 连接的参数配置完成后单击“测试”,可测试连接是否可用。或者直接单击“保存”,保存时也会先检查连接是否可用。 受网络和数据源的影响,部分连接测试的时间可能需要30~60秒。 管理连接 CDM支持对已创建的连接进行以下操作: 删
hdfs://NameNode IP:端口”,若CDH没有启动Kerberos认证则“认证类型”选择“SIMPLE”。 单击“测试”,如果右上角显示“测试成功”,表示连接成功,单击“保存”。 创建MRS HDFS连接: 在作业管理界面,选择“连接管理 > 新建连接”,进入连接器类型的选择界面,选择“MRS
个CDM集群,如果没有可用的CDM集群,请先通过数据集成增量包进行创建。 数据集成配置 测试地址 是 测试连通性地址,返回200则视为连接认证成功。 例如:/test 测试请求方法 是 测试请求方法,GET/POST。 例如:GET 高级属性 否 高级属性配置,常用配置如下: m
作为在管理中心创建连接时的Agent代理,为DataArts Studio实例和数据源直接提供网络通道。 DataArts Studio实例中已经包含一个仅用于测试、试用等非正式业务场景的CDM集群(试用版除外)。 如果该集群已经满足您的使用需求,则无需再购买批量数据迁移增量包。 如果您需要CDM集群
数据连接:默认选择SQL脚本“hive_sql”中设置的数据连接,支持修改。 数据库:默认选择SQL脚本“hive_sql”中设置的数据库,支持修改。 作业编排完成后,单击,测试运行作业。 如果运行成功,单击画布空白处,在右侧的“调度配置”页面,配置作业的调度策略。 图4 配置调度方式 该作业调度时间在2021/0
登录DataArts Studio控制台。选择对应工作空间的“数据集成”模块,进入CDM主界面。 云数据迁移简介 云数据迁移基于分布式计算框架,利用并行化处理技术,支持用户稳定高效地对海量数据进行移动,实现不停服数据迁移,快速构建所需的数据架构。 图1 数据集成定位 产品功能 表/文件/整库迁移
IPv4地址、IPv6地址等)等敏感信息进行识别和脱敏。内置的敏感数据识别规则可在“内置规则模板”页签查看。 选择内置规则后,可输入测试数据,测试能否通过内置规则识别。 *规则名称 规则类型选择“内置”,规则名称自动关联分类模板生成。 自定义 *规则名称 规则类型选择“自定义”,
共享版默认发布到API网关共享版。发布成功后,您可以在API网关服务共享版控制台上查看所发布的API。 系统为API网关共享版的默认分组自动分配一个内部测试用的调试域名,此调试域名唯一且不可更改,此调试域名每天最多可以访问1000次。如果您不希望与其他API共享此规格,可以在APIG共享版控制
Redis 请参见Redis数据连接参数说明。 SAP HANA 请参见SAP HANA数据连接参数说明。 单击“测试”,测试数据连接的连通性。如果无法连通,数据连接将无法创建。 测试通过后,单击“保存”,完成数据连接的创建。 相关操作 编辑数据连接:在数据连接页面的连接列表中,找到所需编
的“开始测试”,可进入API测试环节。 填写参数值,单击“开始测试”,即可在线发送API请求,在右侧可以看到API请求详情及返回内容。 测试过程中,当数据服务API查询返回值超过默认100秒无结果时,会报超时错误。 如果测试失败,请仔细查看错误提示并做相应的修改重新测试。 完成A
产品介绍 什么是DataArts Studio 产品功能 应用场景 如何选择DataArts Studio版本 数据治理方法论 数据治理框架 数据治理组织架构 数据治理度量评估体系 华为数据治理实践 03 入门 DataArts Studio入门教程,指导您如何在DataArts
where date_format(trade_time, 'yyyy-MM-dd') = '2018-09-25' 单击,测试运行作业。 作业测试无问题后,单击,保存作业配置。 更多案例 EL表达式在数据开发过程中被广泛应用,您可以参考最佳实践查看更多应用EL表达式的进阶实践。
Studio数据连接进行配置。 检测网络连通性,测试通过进行下一步源端配置。 数据连接和资源组配置完成后需要测试整个迁移任务的网络连通性。可通过以下方式进行数据源和资源组之间的连通性测试。 单击源端和目的端数据源和资源组中的“测试”进行检测。 单击展开“源端配置”会触发连通性测试,会对整个迁移任务的连通性做校验。
增版本”按钮手动增加保存版本。 测试运行作业。 作业配置完毕后,单击作业开发页面左上角“测试运行”按钮,测试作业。如果测试未通过,请您查看作业节点的运行日志,进行定位处理。 测试运行类似于单次运行,会对数据进行真实迁移。 用户可以查看该作业的测试运行日志,单击“查看日志”可以进入查看日志界面查看日志的详细信息记录。
表达式#{Loop.dataArray[0][0]}。 图9 For Each节点属性 配置完成后保存作业。 测试运行主作业 单击主作业画布上方的“测试运行”按钮,测试作业运行情况。主作业运行后,会通过For Each节点自动调用运行子作业。 单击左侧导航栏中的“实例监控”,进入实例监控中查看作业运行结果。
APIG专享版:如果您需要将API发布到APIG专享版上,则您需要提前在API网关服务上购买一个APIG实例。实例创建后,有一个默认API分组,系统为分组自动分配一个内部测试用的调试域名,此调试域名唯一且不可更改,每天最多可以访问1000次。如果您不希望与其他API共享此规格,可以在APIG控制台新建一个API