检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
训练作业、算法的规格信息。 表26 algorithm 参数 参数类型 描述 code_dir String 算法启动文件所在目录绝对路径。 boot_file String 算法启动文件绝对路径。 inputs inputs object 算法输入通道信息。 outputs outputs object
object 算法的元数据,描述算法基本信息。 job_config 否 AlgorithmJobConfig object 算法配置信息,如启动文件等。 resource_requirements 否 Array of ResourceRequirement objects 算法资源约
Convertor2.1版本之前可能出现的调优不生效的场景,建议您直接使用MindSpore Lite Convertor2.1及以后的版本。配置文件指定选项进行AOE调优。使用转换工具配置config参数,具体如下所示,其中“subgraph tuning”表示子图调优,“operator
published in the environment”,请到在线服务详情界面,“调用指南”页签中获取正确的API接口地址。 如果您在配置文件url中有定义路径,需要在API调用body体中调用路径后拼接自定义路径,例如:您定义url为“/predictions/poetry”,
在“训练作业”页面,删除运行结束的训练作业。您可以单击“操作”列的“删除”,在弹出的提示框中单击“确认”,删除对应的训练作业。 进入OBS,删除本训练作业使用的OBS桶及文件。 查找训练作业 当用户使用IAM账号登录时,训练作业列表会显示IAM账号下所有训练作业。ModelArts提供查找训练作业功能帮助用户快速查找训练作业。
训练原始数据集 |── alpaca_gpt4_data.json # 微调数据文件 父主题: 准备工作
可视化作业的运行时长,单位为毫秒。 create_time Long 可视化作业的创建时间,时间戳格式。 train_url String 可视化作业输出文件OBS路径。 status Int 可视化作业的运行状态,详细作业状态列表请参见作业状态参考。 请求示例 如下以查询作业ID为10的可视化作业为例。
e policy”原则。该设计原则更推荐直接复制粘贴代码,而不是进行抽象处理。因此,与模型前向运算相关的所有源代码都被直接复制粘贴到同一个文件中,而不是调用某些抽象提取出的模块化库。Diffusers的这种设计原则的好处是代码简单易用、对代码贡献者友好。然而,这种反软件结构化的设
训练原始数据集 |── alpaca_gpt4_data.json # 微调数据文件 注意:多机情况下,只有在rank_0节点进行数据预处理,转换权重等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下。
OBSOutputConfig(obs_path = storage.join("directory_path")) # 注意,只能创建目录,不能创建文件 。 工作流运行时,如果storage对象配置的根路径为"/root/",则系统自动创建相对目录,最后得到的路径为"/root/执行ID/directory_path"
请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 storage_type String 挂载类型sfs_turbo极速文件系统挂载。 source_address String 挂载源路径,挂载为极速文件时为sfs turbo id。 表10
是否必选 参数类型 描述 pfs 是 PFSSummary object obs并行文件系统输出。 表17 PFSSummary 参数 是否必选 参数类型 描述 pfs_path 是 String obs并行文件系统路径url。 表18 DataSource 参数 是否必选 参数类型 描述
在分发待标注文件,owner/manager/labeler/reviewer可见任务列表,但任务未分配完成,无法同时再启动任务。 1:运行中。labeler/reviewer进行标注和审核工作,owner验收,如新增、同步智能标注、导入未标注文件需再次分发新增文件。 2:验收中
ma-cli可以使用add-template命令将镜像模板加载到指定文件夹下,默认路径为当前命令所在的路径。 比如${current_dir}/.ma/${template_name}/。也可以通过--dest命令指定保存的路径。当保存的路径已经有同名的模板文件夹时,可以使用--force | -f参数进行强制覆盖。
max_model_len is greater than the drived max_model_len。 解决方法:修改config.json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。config.json存在模型
1、在容器中使用ma-user用户运行以下命令下载并安装AutoAWQ源码。 bash build.sh 2、运行“examples/quantize.py”文件进行模型量化,量化时间和模型大小有关,预计30分钟~3小时。 export ASCEND_RT_VISIBLE_DEVICES=0 #设置使用NPU单卡执行模型量化
验证SFS权限。 在左上角的服务列表中,选择SFS服务,进入SFS管理控制台。 在SFS管理控制台,在SFS Turbo中单击右上角的“创建文件系统”,如果能正常打开页面,表示当前用户具备SFS的操作权限。 验证ECS权限。 在左上角的服务列表中,选择ECS服务,进入ECS管理控制台。
仅支持313T、376T、400T 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表及权重文件地址 支持模型 支持模型参数量 权重文件获取地址 Llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
在线服务的请求模式。 同步请求:单次推理,可同步返回结果(约<60s)。例如: 图片、较小视频文件。 异步请求:单次推理,需要异步处理返回结果(约>60s)。例如: 实时视频推理、大视频文件。 创建时间 模型的创建时间。 描述 模型的描述。 操作 部署:将模型发布为在线服务、批量服务或边缘服务。
LogDir 参数 参数类型 描述 pfs PFSSummary object obs并行文件系统输出。 表29 PFSSummary 参数 参数类型 描述 pfs_path String obs并行文件系统路径url。 表30 DataSource 参数 参数类型 描述 job JobSummary