检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实际数据或新产生数据中,进行预测、评价、或以可视化和报表的形式把数据中的高价值信息以精辟易懂的形式提供给决策人员,帮助其制定更加正确的商业策略。 父主题: AI开发基础知识
formats:执行结果的输出文件类型。 Parameter:单击+,手动设置运行Notebook的python变量。 Schedule:任务执行策略,可以立即运行;也可以设置定时策略运行,支持cron表达式。 cron表达式需要使用linux系统下支持的格式,其他的cron表达式会报错。表达式可能会包含
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 Step2 创建LoRA微调训练任务 创建训练作业,并自定义
object Execution执行的错误信息。 policy WorkflowStepExecutionPolicy object 节点的执行策略。 conditions_execution WorkflowConditionExecution object 条件执行。 step_title
无法完全达到企业对权限最小化的安全管控要求。 策略授权:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 角色与策略相关介绍请参考权限基本概念。 “新增委托 > 权限配置
objects 节点steps使用到的参数。 policies WorkflowDagPolicies object 执行记录使用到的执行策略。 表3 StepExecution 参数 参数类型 描述 step_name String 节点的名称,在一个DAG中唯一,1到64位只
部署了高防服务,以防大流量攻击。 ModelArts对存放关键数据的数据库部署了数据库安全服务。 云服务防抖动和遭受攻击后的应急响应/恢复策略 ModelArts服务具备租户资源隔离能力,避免单租户资源被攻击导致爆炸半径大,影响其他租户。 ModelArts服务具备资源池和隔离能
删除maos-node-agent的pod(重启pod)。 CCE页面上删除节点上的污点A200008。 ModelArts页面上重置节点。 该方案的缺点:用户新建负载时需要手动指定调度器为volcano,参考指导。 解决方案二(默认全部使用volcano调度器): CCE页面上配置中心修改默认调度器为kube-scheduler。
Lite涉及的资源配额 服务 资源类型 ECS资源类型 ECS实例数 CPU核心数 RAM容量(MB) 弹性公网IP EIP资源 伸缩带宽策略 云硬盘EVS SFS资源 磁盘数 磁盘容量(GB) 快照数 弹性文件服务SFS资源 容量配额
objects 节点steps使用到的参数。 policies WorkflowDagPolicies object 执行记录使用到的执行策略。 表5 StepExecution 参数 参数类型 描述 step_name String 节点的名称,在一个DAG中唯一,1到64位只
无法完全达到企业对权限最小化的安全管控要求。 策略授权:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 角色与策略相关介绍请参考权限基本概念。 “新增委托 > 权限配置
控制台会过滤可用的公共资源池。 advanced_config 否 AlgorithmAdvancedConfig object 算法高级策略: auto_search 表3 AlgorithmMetadata 参数 是否必选 参数类型 描述 id 否 Integer 算法uuid,创建算法时无需填写。
storages=storage ) 案例中job_step_a和job_step_b均配置了跳过策略,并且都使用参数进行控制。当参数值配置不同时,model_step的执行可以分为以下几种情况(model_step没有配置跳过策略,因此会遵循默认规则): job_step_a_is_skip参数值 job_step_b_is_skip参数值
省值表示读取资源池镜像中的默认值。 绑核:开启CPU绑核表示工作负载实例独占CPU,可以提升应用性能(比如训练作业、推理任务性能),减少应用的调度延迟,适用于对CPU缓存和调度延迟敏感的场景。关闭绑核表示关闭工作负载实例独占CPU的功能,优点是CPU共享池可分配的核数较多。也可关
/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 storage_type String 挂载类型sfs_turbo极速文件系统挂载。 source_address String
为“全局级服务”的“Tenant Administrator”策略,即拥有OBS服务所有操作权限。 如果需要限制此IAM用户操作,仅为此用户配置OBS相关的最小化权限项,具体操作请参见创建ModelArts自定义策略。 检查OBS桶是否具备权限。 下方步骤描述中所致的OBS桶,指
算法资源约束,可不设置。设置后,在算法使用于训练作业时,控制台会过滤可用的公共资源池。 advanced_config advanced_config object 算法高级策略: auto_search 表3 metadata 参数 参数类型 描述 id Integer 算法uuid,创建算法时无需填写。 name
引入多进程启动机制:初始化进程 引入几个变量:tcp协议,rank进程序号,worldsize开启的进程数量 分发数据:DataLoader中多了一个Sampler参数,避免不同进程数据重复 模型分发:DistributedDataParallel(model) 模型保存:在序号为0的进程下保存模型
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 步骤3 启动训练脚本 修改超参值后,再启动训练脚本。Llama2-70b建议为4机32卡训练。
参考pull/push 镜像体验章节,将上一步build的镜像上传到容器镜像服务上。 Step5 使用CCE进行部署 在CCE上创建工作负载,创建工作负载时所需的yaml文件可参考在Lite Cluster资源池上使用Snt9B完成推理任务。 在CCE上创建服务。 父主题: AIGC模型训练推理