正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
py”。由于后台会自动将代码目录下载至容器的“/home/work/user-job-dir/”目录下,因此您可以在启动文件“test.py”中通过如下方式调用“.sh”文件: import os os.system('bash /home/work/user-job-dir/code/test
导入数据集时,使用Manifest文件。选择导入Manifest文件时,可以从OBS导入。当从OBS导入Manifest文件时,需确保当前用户具备Manifest文件所在OBS路径的权限。 Manifest文件编写规范要求较多,推荐使用OBS目录导入方式导入新数据。一般此功能常用
批量服务或边缘服务,可在“AI应用管理 > AI应用”页面中直接部署。 支持发布至市场 将产生的模型发布至AI Gallery,共享给其他用户。 支持创建新版本 创建新版本,仅支持从ModelArts训练作业、OBS、模型模板、或自定义镜像中选择元模型。无法从原自动学习项目中,创建新版本。
调试,请按照以下步骤完成Notebook的创建。 登录ModelArts控制台,在贵阳一区域,进入开发环境的Notebook界面,单击右上角“创建”,创建一个开发环境。创建Notebook的详细介绍可以参考创建Notebook实例,此处仅介绍关键步骤。 创建Notebook时,选择自定义镜像,并选择Step8
_filter方法,然后在数据预处理的参数里指定自己的handler名称即可 用户自定义执行数据处理脚本修改参数说明 若用户要自定义数据处理脚本并且单独执行,同样以 llama2 为例。 方法一:用户可打开scripts/llama2/1_preprocess_data.sh脚本
_filter方法,然后在数据预处理的参数里指定自己的handler名称即可 用户自定义执行数据处理脚本修改参数说明 如果用户要自定义数据处理脚本并且单独执行,同样以 llama2 为例。 方法一:用户可打开scripts/llama2/1_preprocess_data.sh脚
请检查您的模型是否能正常运行。例如模型依赖的资源是否故障,需要排查推理日志。 实例pod数量异常 。 如果您曾经找过运维人员删除过异常的实例pod,事件中可能会出现告警“服务异常,不正常的实例数为XXX”。在出现这种告警后,服务会自动拉起新的正常实例,从而恢复到正常运行状态。请您耐心等待。 父主题: 服务部署
运行。Notebook开发环境支持“tf.keras”。 如何查看Keras版本 在ModelArts管理控制台,创建一个Notebook实例,镜像选择“TensorFlow-1.13”或“TensorFlow-1.15”。 打开Notebook,在JupyterLab中执行!pip
pip install xxx 在Terminal中安装 在Terminal里激活需要的anaconda python环境后再进行安装。 例如,通过terminal在“TensorFlow-1.8”的环境中使用pip安装Shapely。 在总览页面进入CodeLab。 在“Other”
订阅模型 从AI Gallery订阅模型 从云服务订阅AI应用(即将下线) 父主题: 管理AI应用
模型模板 模型模板简介 模板说明 输入输出模式说明 父主题: 推理规范说明
自定义脚本代码示例 TensorFlow TensorFlow 2.1 PyTorch Caffe XGBoost Pyspark Scikit Learn 父主题: 推理规范说明
部署AI应用(部署上线) 部署AI应用(在线服务) 部署AI应用(批量服务) 部署AI应用(边缘服务) 修改服务 启动、停止、删除、重启服务 查看服务的事件
云监控平台ModelArts监控 ModelArts支持的监控指标 设置告警规则 查看监控指标
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: Baichuan2-13B模型基于DevServer适配PyTorch NPU训练指导(6.3.904)
SFT全参微调 SFT全参微调数据处理 SFT全参微调权重转换 SFT全参微调超参配置 SFT全参微调任务 查看性能 父主题: Baichuan2-13B模型基于DevServer适配PyTorch NPU训练指导(6.3.904)
准备工作 准备资源 准备权重 准备代码 准备镜像 准备Notebook 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905)
主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 父主题: LLM大语言模型训练推理
CUDA和CUDNN Vnt1机型软件版本建议 CUDA Compatibility如何使用? 专属池驱动版本如何升级? 父主题: FAQ
推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.906)