检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
表5 instance 参数 是否必选 参数类型 描述 availability_zone 是 String 集群的可用分区。可通过https://developer.huaweicloud.com/endpoint获取。 nics 是 Array of nics objects
data Object 返回的数据信息。 请求示例 将标签ddd从ID为1217123755210469378的表上移除。 DELETE https://{endpoint}/v2/{project_id}/design/1217123755210469378/tags?tag=ddd
SQL脚本,脚本名称为“dws_sql”。在编辑器中输入SQL语句,通过SQL语句来实现统计前一天的销售额。 图1 开发脚本 关键说明: 图1中的脚本开发区为临时调试区,关闭脚本页签后,开发区的内容将丢失。您可以通过“提交”来保存并提交脚本版本。 数据连接:创建DWS的数据连接中已创建的连接。 开发DWS SQL作业
重复性工作。在这种情况下,我们可以使用For Each节点进行循环作业,节省开发工作量。 配置方法 准备源表和目的表。为了便于后续作业运行验证,需要先创建DLI源数据表和目的表,并给源数据表插入数据。 创建DLI表。您可以在DataArts Studio数据开发中,新建DLI S
而导致迁移失败,此时可关闭配置避免迁移报错。 useCursorFetch=false:CDM作业默认打开了JDBC连接器与关系型数据库通信使用二进制协议开关,即useCursorFetch=true。部分第三方可能存在兼容问题导致迁移时间转换出错,可以关闭此开关;开源MySQL
data Object 返回的数据信息。 请求示例 给ID为1217123755210469378的表打标签aaa、bbb。 PUT https://{endpoint}/v2/{project_id}/design/1217123755210469378/tags?tags=bbb&tags=aaa
重复性工作。在这种情况下,我们可以使用For Each节点进行循环作业,节省开发工作量。 配置方法 准备源表和目的表。为了便于后续作业运行验证,需要先创建DLI源数据表和目的表,并给源数据表插入数据。 创建DLI表。您可以在DataArts Studio数据开发中,新建DLI S
myhuaweicloud.com HTTPS 华北-北京二 cn-north-2 cdm.cn-north-2.myhuaweicloud.com HTTPS 华北-北京四 cn-north-4 cdm.cn-north-4.myhuaweicloud.com HTTPS 华北-乌兰察布一 cn-north-9
保存版本时,一分钟内多次保存只记录一次版本。对于中间数据比较重要时,可以通过“新增版本”按钮手动增加保存版本。 支持单击右键,可快速复制作业名称,同时可以快速的关闭已打开的作业页签。 在MRS API连接模式下,单任务MRS Spark SQL和MRS Hive SQL运行完以后,在执行结果中查看运行日志,增加一键跳转MRS
数据架构页面。 (可选)在数据架构控制台,单击左侧导航树中的“配置中心”,在功能配置下选择是否开启“时间限定生成使用动态表达式”功能,默认关闭。 图1 功能配置 在数据架构控制台,单击左侧导航树中的“技术指标”,选择“时间限定”页签。 进入时间限定页面后,单击“新建”按钮。 在新
Company_Name2=sys.argv[2] template='No.:{:0>9s} \t CompanyName: {:s} \t Website: https://www.{:s}.com' context1=template.format('1',Company_Name1,Company_Name1
Client节点中的发送数据定义为#{Job.getNodeOutput("count95")},然后作业运行后查看Kafka Client节点日志,则可以验证MRS Hive SQL节点返回的结果为二维数组[["2"]]。 图4 查看Kafka Client节点日志 通过For Each节点提取输出结果值
为实现DWS数据源的数据访问审计,需要满足如下条件: 已开启DWS集群的审计功能开关audit_enabled。 审计功能开关默认开启,如果已关闭则请参考修改数据库参数章节将audit_enabled设置为ON。 已开启需要审计的审计项。 DWS各类审计项及其开启方法,请参考设置数据库审计日志章节。
Client节点中的发送数据定义为#{Job.getNodeOutput("count95")},然后作业运行后查看Kafka Client节点日志,则可以验证MRS Hive SQL节点返回的结果为二维数组[["2"]]。 图4 查看Kafka Client节点日志 通过For Each节点提取输出结果值
21c (21.3) drivers)。 解决方案 推荐使用Oracle Database 12c中的ojdbc8.jar驱动,下载地址:https://www.oracle.com/database/technologies/jdbc-ucp-122-downloads.html。
转换逻辑模型为物理模型,转换成功则显示转换后的目标模型信息。 异常:目标模型信息的“id”等属性为null时,则需要调用《获取操作结果》接口查看具体报错信息:GET https://{endpoint}/v1/{project_id}/design/operation-results?operation_typ
myhuaweicloud.com HTTPS 华北-北京二 cn-north-2 cdm.cn-north-2.myhuaweicloud.com HTTPS 华北-北京四 cn-north-4 cdm.cn-north-4.myhuaweicloud.com HTTPS 华北-乌兰察布一 cn-north-9
具有OBS相关路径的访问权限。 已开通MapReduce服务MRS,并创建MRS集群。 数据准备 下载Flink作业资源包"wordcount.jar",下载地址:https://github.com/huaweicloudDocs/dgc/blob/master/WordCount.jar 下载的Flink
action操作。compaction操作一定程度会影响实时任务的写入性能,为了保证Migration作业的稳定性可以考虑设置为false关闭compaction操作,将Hudi Compaction单独拆成Spark作业交由MRS执行,具体可以参考如何配置Hudi Compaction的Spark周期任务?。
图7 DAG视图 DAG视图默认展示当前作业实例及上下游作业实例,并支持如下操作: DAG视图右上角表示恢复DAG图初始状态,表示关闭,单击可以关闭。左侧侧边图标可以拖动改变视图宽度。 单击可以选中某个作业实例: 图8 选中作业实例 选中时,该作业实例及其上下游实例的背景颜色加深显示。