检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 通过容器名称进入容器中。启动容器时默认用户为ma-user用户。 docker exec -it ${container_name}
main_service_step] ) 同步推理服务部署相关信息配置操作 在开发态中(一般指Notebook),节点启动运行后,用户根据日志打印的输入格式进行配置,如下所示: 在ModelArts管理控制台,左侧菜单栏选择“开发空间>Workflow”进入Workflow页面。
NODE_RANK=0 执行以下命令,开始预训练。 nohup sh ./pretrain_gpt2.sh & 图3 开始预训练 实时查看训练日志,监控程序。 tail -f nohup.out 如果显示如下信息, 表示模型训练完成。 图4 模型训练完成 在训练过程中观察单GPU卡的利用率,如下:
查看已标注文本 在数据集详情页,单击“已标注”页签,您可以查看已完成标注的文本列表。您也可以在右侧的“全部标签”中了解当前数据集支持的所有标签信息。 修改标注 当数据完成标注后,您还可以进入已标注页签,对已标注的数据进行修改。 基于图片修改 在标注作业详情页面,单击“已标注”
billing_items Array of strings 计费资源类型。枚举值: STORAGE:存储资源计费。 COMPUTE:计算资源计费。 ALL:所有计费类型 user user object 账号信息 表8 JobProgress 参数 参数类型 描述 notebook_id String
给其他人使用。使用者无需关注流水线中包含什么算法,也不需要关注流水线是如何实现的。使用者只需要关注流水线生产出来的模型或者应用是否符合上线要求,如果不符合,是否需要调整数据和参数重新迭代。这种使用固化下来的流水线的状态,在Workflow中统称为运行态。 总的来说,Workflow有两种形态。
copy_parallel(local_data_dir, obs_data_dir) 模型推荐的参数与NPU卡数设置 不同模型推荐的训练参数和计算规格要求如表1所示。规格与节点数中的1*节点 & 4*Ascend表示单机4卡,以此类推。 表1 不同模型推荐的参数与NPU卡数设置 序号 支持模型
推理部署使用的服务框架是vLLM。vLLM支持v0.6.0版本。 仅支持FP16和BF16数据类型推理。 本案例仅支持在专属资源池上运行。 专属资源池驱动版本要求23.0.6。 适配的CANN版本是cann_8.0.rc3。 支持的模型列表和权重文件 本方案支持vLLM的v0.6.0版本。不同vLL
推理代码及模型需安装的包,默认为空。从配置文件读取。 否 str model_metrics 模型精度信息,从配置文件读取。 否 str apis 模型所有的apis入参出参信息(选填),从配置文件中解析出来。 否 str initial_config 模型配置相关数据。 否 dict template
请参见准备工作(华为HiLens)。 订阅免费模型 登录“AI Gallery”。 选择“资产集市 > 模型”,进入模型页面,该页面展示了所有共享的模型,包括ModelArts模型和HiLens技能。 搜索业务所需的免费模型,请参见查找资产。 单击目标模型进入详情页面。 在详情页
业界主流开源大模型覆盖全 MaaS集成了业界主流开源大模型,含Llama、Baichuan、Yi、Qwen、DeepSeek模型系列,所有的模型均基于昇腾AI云服务进行全面适配和优化,使得精度和性能显著提升。开发者无需从零开始构建模型,只需选择合适的预训练模型进行微调或直接应用,减轻模型集成的负担。
推荐您根据以下使用流程对Lite Cluster进行使用。 资源开通:您需要开通资源后才可使用Lite Cluster,在开通资源前,请确保完成所有相关准备工作,包括申请开通所需的规格和进行权限配置。随后,在ModelArts控制台上购买Lite Cluster资源。请参考Lite Cluster资源开通。
project_id String 项目ID。 表19 notebook字段数据结构说明 参数 参数类型 说明 log_path String 自定义镜像日志存储路径。 custom_script_path String Notebook启动时的自定义初始化脚本路径。 extend_storage
Code中打开要执行的代码文件,在执行代码之前需要选择合适的Python版本路径,单击下方默认的Python版本路径,此时在上方会出现该远程环境上所有的python版本,选择自己需要的版本即可。 图14 选择Python版本 对于打开的代码文件,单击run按钮,即可执行,可以在下方的Terminal中看到代码输出信息。
控制要考虑的前几个tokens的数量的整数。设置为-1表示考虑所有tokens。适当降低该值可以减少采样时间。 top_p 否 1.0 Float 控制要考虑的前几个tokens的累积概率的浮点数。必须在 (0,1] 范围内。设置为1表示考虑所有tokens。 temperature 否 1.0
billing_items Array of strings 计费资源类型。枚举值: STORAGE:存储资源计费。 COMPUTE:计算资源计费。 ALL:所有计费类型 user user object 账号信息 表5 JobProgress 参数 参数类型 描述 notebook_id String
适配PyTorch和MindSpore框架。这些子工具侧重不同的训练场景,可以定位模型训练中的精度问题。 支持精度预检,可扫描训练模型中的所有API进行API复现,给出精度情况的诊断和分析。 精度比对,对PyTorch整网API粒度的数据dump、精度比对,进而定位训练场景下的精度问题
支持FP16和BF16数据类型推理。 Lite k8s Cluster驱动版本推荐为23.0.6。 适配的CANN版本是cann_8.0.rc3。 资源规格要求 本文档中的模型运行环境是ModelArts Lite的Lite k8s Cluster。推荐使用“西南-贵阳一”Region上的资源和Ascend
镜像最后更新的时间,UTC毫秒。 visibility String 镜像可见度。枚举值如下: PRIVATE:私有镜像。 PUBLIC: 所有用户可以根据ImageId来进行只读使用。 workspace_id String 工作空间ID。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。
billing_items Array of strings 计费资源类型。枚举值: STORAGE:存储资源计费。 COMPUTE:计算资源计费。 ALL:所有计费类型 user user object 账号信息 表10 JobProgress 参数 参数类型 描述 notebook_id String