检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
可停止计费。 操作步骤: 在ModelArts管理控制台,单击左侧菜单栏的“总览”,您可以在“总览”区域查看正在收费的作业。再根据实际情况进入管理页面,停止收费。 图1 查看收费作业 进入“ModelArts>Workflow”页面,检查是否有“运行中”的Workflow列表。如果有,单击Workflow列表中“操作
再放入netron官网中,查看其inputShape。 如果netron中没有显示inputShape,可能由于使用了动态shape模型导致,请确保使用的是静态shape模型,静态shape模型文件导出方法请参考模型准备。 图1 netron中查看inputShape 精度选择。
介绍如何进行预训练,包括训练数据处理、超参配置、训练任务、性能查看。 微调训练 SFT全参微调 介绍如何进行SFT全参微调、超参配置、训练任务、性能查看。 LoRA微调训练 介绍如何进行LoRA微调、超参配置、训练任务、性能查看。 父主题: 主流开源大模型基于DevServer适配ModelLink
例并使用。关于Dockerfile的具体编写方法,请参考官网。 查询基础镜像(第三方镜像可跳过此步骤) ModelArts提供的公共镜像,请参考Notebook专属预置镜像列表,根据预置镜像的引擎类型在对应的章节查看镜像URL。 连接容器镜像服务。 登录容器镜像服务控制台。选择左
建议您按以下步骤排查处理: 确认部署在线服务时是否选择了GPU规格。 在customize_service.py中添加一行代码os.system('nvcc -V)查看该镜像的cuda版本(customize_service.py编写指导请见模型推理代码编写说明)。 确认该cuda版本与您安装的mmcv版本是否匹配。
lspci查询缺少设备 LspciCardNotFound 重要 一般是由于NPU掉卡 转硬件处理 NPU卡无法正常使用 NPU: 温度超过阈值 TemperatureOverUpperLimit 重要 可能是由于DDR颗粒温度过高或过温软件预警 暂停业务,重启系统,查看散热系统,device复位
介绍如何进行预训练,包括训练数据处理、超参配置、训练任务、性能查看。 微调训练 SFT全参微调 介绍如何进行SFT全参微调、超参配置、训练任务、性能查看。 LoRA微调训练 介绍如何进行LoRA微调、超参配置、训练任务、性能查看。 父主题: 主流开源大模型基于DevServer适配PyTorch
Server failed to start”如何解决? 问题现象 解决方法 检查VS Code版本是否为1.78.2或更高版本,如果是,请查看Remote-SSH版本,如果Remote-SSH版本低于v0.76.1,请升级Remote-SSH。 打开命令面板(Windows: C
介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。 微调训练 SFT全参微调 介绍如何进行SFT全参微调,包括训练数据处理、超参配置、创建训练任务及性能查看。 LoRA微调训练 介绍如何进行LoRA微调训练,包括训练数据处理、超参配置、创建训练任务及性能查看。 父主题: 主流开源大模型基于Standard适配PyTorch
解决方案 方法1(推荐),建议将此数据集重新发布版本,然后再使用新版本的Manifest文件导入。 方法2,修改您本地的Manifest文件,查找OBS目录下的数据变更,根据变更同步修改Manifest。确保Manifest文件与OBS目录下的数据现状相同,然后使用修改后的Manifest文件导入。
使用token替换原先的密码授权方式,在git clone私有仓库和git push文件时,需要在授权方式框中输入token(见下图);具体获取token方式请参考查看GitHub中Personal Access Token信息。 父主题: JupyterLab插件故障
如果不设置,则表示未标注对象。annotation值为一个对象列表,详细参数请参见表3。 inference-loc 否 当此文件由推理服务生成时会有该字段,表示推理输出的结果文件位置。 表2 数据来源类型 类型 示例 OBS “source”:“s3://path-to-jpg” Content “source”:“content://I
1小时内的实际使用时长进行扣费。 实际计费规则 资源按时价扣费,真正计费的价格以实际账单为准。查看账单请参见账单介绍。 用户在创建AI Gallery工具链服务选择付费资源时,可以查看到付费资源的单价,在使用过程中,该资源可能由于平台的折扣优惠变化导致单价发生变化,而云服务是先使
--prefix /home/ma-user/work/envs/user_conda/sfs-new-env python=3.7.10 -y 查看现有的conda虚拟环境,此时可能出现新创建的虚拟环境的名称为空的情况。 # shell conda env list # conda environments:
专属资源池从创建到启用需要一定时长,计费的起点是创建成功的时间点,而非创建时间。您可以在专属资源池详情页“基本信息”页签查看创建时间,在“事件”页签查看“事件信息”为“创建资源池管理节点成功”的“事件发生时间”,创建成功的时间点对应界面上的“事件发生时间”。 对于公共资源池:
果您是卖家则需要完成实名认证并进行华为云云商店入驻。 如果您是卖家,您可以在云商店查看自己售卖的商品是否上架成功。在云商店右上方单击“卖家中心 > 进入卖家中心”,选择“商品管理 > 我的商品”查看在售卖的商品。 如果您是买家,您可以在云商店搜索、购买商品,已经购买的商品将展示在“云商店
选择模型服务,单击操作列的“更多 > 设置QPS”,在弹窗中修改数值,单击“提交”启动修改任务。 图1 修改QPS 在我的服务列表,单击服务名称,进入服务详情页,可以查看修改后的QPS是否生效。 扩缩容实例数 在使用大型模型进行推理时,其业务需求会呈现出明显的峰谷波动。因此,模型服务必须具备灵活的扩缩容能力
可在Terminal中解压压缩包。 unzip xxx.zip #在xxx.zip压缩包所在路径直接解压 解压命令的更多使用说明可以在主流搜索引擎中查找Linux解压命令操作。 父主题: 文件上传下载
介绍如何进行预训练,包括训练数据处理、超参配置、训练任务、性能查看。 微调训练 SFT全参微调 介绍如何进行SFT全参微调、超参配置、训练任务、性能查看。 LoRA微调训练 介绍如何进行LoRA微调、超参配置、训练任务、性能查看。 父主题: 主流开源大模型基于Lite Cluster适配PyTorch
Boolean 是否使用的是缓存。 表13 WorkflowConditionExecution 参数 参数类型 描述 result String 执行结果。 metric_list Array of WorkflowMetricPair objects 工作流度量信息列表。 表14 WorkflowMetricPair