检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询执行:基本信息 执行类型、执行名称、创建人、创建时间、结束时间、执行状态、标签(脚本id,脚本名,执行脚本参数,执行用户,超时时长、成功率阈值) 不同的任务类型消费标签中的不同key URI GET /v1/job/script/orders/{execute_uuid} 表1 路径参数 参数
源库Oracle为RAC集群时,为什么建议使用SCAN IP连接 源库Oracle为RAC集群时,建议使用SCAN IP+ SERVICE_NAMES方式创建任务,因为SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 如果需要使用SCAN IP,需要保证SCAN IP与源库的所有VIP互通,否则无法通过测试连接检查。
MongoDB/DDS增量迁移 使用CDM导出MongoDB或者DDS的数据时,支持导出指定时间段内的数据,配合CDM的定时任务,可以实现MongoDB/DDS的增量迁移。 如果配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时,系统会将时间宏变量替
开通接入 简介 我们提供多个短信发送API接口,可以快捷接入自建系统,迅速完成短信发送任务,实现本地业务和短信业务的一体化。调用API发送前,需要先开通相关接入信息。 详细操作 详细操作步骤如下: 进入IoT云通信短信控制台,选择“国内短信 > 开通接入”,进入开通接入页面。 根
个SQL中间层,提供一个客户端可嵌入的JDBC驱动,Phoenix查询引擎将SQL输入转换为一个或多个HBase scan,编译并执行扫描任务以产生一个标准的JDBC结果集。 代码样例 客户端“hbase-example/conf/hbase-site.xml”中配置存放查询中间
问题 系统长时间运行后,在客户端安装节点的/tmp目录下,发现残留了很多blockmgr-开头和spark-开头的目录。 图1 残留目录样例 回答 Spark任务在运行过程中,driver会创建一个spark-开头的本地临时目录,用于存放业务jar包,配置文件等,同时在本地创建一个
个SQL中间层,提供一个客户端可嵌入的JDBC驱动,Phoenix查询引擎将SQL输入转换为一个或多个HBase scan,编译并执行扫描任务以产生一个标准的JDBC结果集。 代码样例 客户端“hbase-example/conf/hbase-site.xml”中配置存放查询中间
问题 系统长时间运行后,在客户端安装节点的/tmp目录下,发现残留了很多blockmgr-开头和spark-开头的目录。 图1 残留目录样例 回答 Spark任务在运行过程中,driver会创建一个spark-开头的本地临时目录,用于存放业务jar包,配置文件等,同时在本地创建一个
如何从一个区域迁移ECS到另一个区域下? 当您因业务需要,需要从一个区域迁移ECS到另一个区域,如从华南-广州迁移到华北-北京一,需在华南-广州的ECS中安装Agent,创建迁移任务时,目的端区域选择华北-北京一。 A账号下的ECS迁移到B账号请参见如何迁移一个账号下的弹性云服务器到另一个账号下?。 父主题: 产品咨询
1106 ”删除磁盘***失败,失败原因:periodic volume can not be deleted! 出现该问题时,实际的迁移任务已经完成,目的端服务器可以正常登录验证并使用。如您后续还有同步增量数据的需求,需要按照解决方案处理后,再进行迁移。 问题分析 迁移期间系统
配置DataNode预留磁盘百分比 配置场景 当Yarn本地目录和DataNode目录配置在同一个磁盘时,具有较大容量的磁盘可以运行更多的任务,因此将有更多的中间数据存储在Yarn本地目录。 目前DataNode支持通过配置“dfs.datanode.du.reserved”来配
MongoDB/DDS增量迁移 使用CDM导出MongoDB或者DDS的数据时,支持导出指定时间段内的数据,配合CDM的定时任务,可以实现MongoDB/DDS的增量迁移。 如果配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时,系统会将时间宏变量替
获取错误日志下载链接。 需要低频重复调用,直到status返回FINISH,就可以获取下载链接。 或者取第一次调用返回的workflow_id,去查询任务状态,成功后再次调用此接口即可获取下载链接。 调用接口前,您需要了解API 认证鉴权。 调试 您可以在API Explorer中调试该接口。
以消息通知接口的形式通知给App。比如会议来电通知onConfStatusChanged。 典型场景接口的调用顺序及生命周期 图1 典型场景接口调用时序图 1、使用SDK功能前需要初始化。 2、在不登录的情况下也能通过会议ID和密码加入已经创建好的会议,其它使用场景需要登录。 3、可选通知根据需求场景决定是否实现。
可在“详细数据”区域右上角输入“业绩ID”和“订单号”进行筛选查找。 导出指标数据。 导出指标数据 单击“导出 > 导出当前记录”,页面提示“导出任务创建成功”。 查看导出记录 单击“导出 > 查看导出记录”,进入“导出记录”页面。 单击“操作”列的“下载”,下载并查看导出状态为“已完成”的指标数据。
Manager界面,选择“集群 > 服务 > meta > 图表”,在“图表分类”选择“OBS数据读操作”,在“OBS的readFully接口调用失败数-所有实例”图表上查看OBS的readFully接口调用失败数最大值所在的实例的主机名称,例如,下图所示的主机名称为:node-ana-corevpeO003:
Spark读写Hudi资源配置建议 Spark读写Hudi任务资源配置规则,内存和CPU核心的比例2:1,堆外内存和CPU核心比例0.5:1;即一个核心,需要2G堆内存,0.5G堆外内存 Spark初始化入库场景,由于处理的数据量比较大,上述资源配比需要调整,内存和Core的比例
(例如:env-cce-az1、env-cce-az2)。 企业项目 设置企业项目。 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 请参考开通企业项目。 虚拟私有云(VPC) 选择资源准备中已准备好的虚拟私有云VPC。
已对租户执行预注销操作。 操作步骤 单击主菜单的“组织”。默认进入“租户管理”页面。 单击“预注销管理”页签。 根据表1执行以下操作。 表1 预注销管理操作 任务 说明 步骤 开启或关闭设置冷冻期 根据需要设置是否开启冷冻期。 单击开启设置冷冻期。 单击关闭设置冷冻期。 设置冷冻期时长 该设置对全局
创建图像分类自动学习项目并完成图片标注,训练按钮显示灰色,无法开始训练? 图像分类项目,图片标注至少需要两个类别,且每个类别至少5张图片,才可以开始自动训练。 父主题: 模型训练