检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
软件配套版本 本方案支持的软件配套版本和依赖包获取地址如表1所示。 表1 软件配套版本和获取地址 软件名称 说明 下载地址 AscendCloud-3rdLLM-6.3.905-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了本教程中使用到的vLLM 0.3.
"user_id" : "04f258c8fb00d42a1f65c00df88cc4dc", "project_id" : "04f258c84780d5a52f3bc00dc15aa5e7", "app_type" : "APIG", "app_codes"
"notebooks_test", "status" : "CREATING", "token" : "3eff13f2-3d70-5456-6dc7-e3f99f562022", "workspace_id" : "0" } 状态码 状态码 描述 200 OK 201 Created
错误信息,status是3时,会出现该字段。 inputs Array of ProcessorDataSource objects 数据处理任务的输入通道列表,与data_source二选一。 is_current Boolean 当前任务是否是该版本的同类型任务中的最新任务。 name String
https://{endpoint}/v1/{project_id}/notebooks/a55eba18-1ebf-4e9a-8229-d2d3b593a3dc/tags/delete { "action" : "delete", "tags" : [ { "key" : "dev"
https://{endpoint}/v1/{project_id}/pools/a55eba18-1ebf-4e9a-8229-d2d3b593a3dc/tags 响应示例 状态码: 204 标签列表。 { "tags" : [ { "key" : "dev", "values"
size 是 表示图像的像素信息。 width:必选字段,图片的宽度。 height:必选字段,图片的高度。 depth:必选字段,图片的通道数。 segmented 是 表示是否用于分割。 object 是 表示物体检测信息,多个物体标注会有多个object体。 name:必选字段,标注内容的类别。
"exec: \"/home/mind/model/run_vllm.sh\": permission denied" 解决方法:修改AscendCloud-6.3.907-xxx.zip压缩包中llm_inference/ascend_vllm/build_image.sh内容,将'ENTRYPOINT
"nodePool" : "nodepool-1", "flavor" : "modelarts.vm.2u4g.dcc", "count" : 1, "maxCount" : 1, "network" : {
Standard运行,需要购买ModelArts专属资源池。 准备权重 准备对应模型的权重文件。 准备代码 准备AscendCloud-3rdLLM-6.3.905-xxx.zip和AscendCloud-OPP-6.3.905-xxx.zip。 准备镜像 准备推理模型适用的容器镜像。 准备Notebook
结束训练之后,调用stop接口。 debugger.stop() (可选)梯度数据相似度比对。 from msprobe import * GradComparator.compare_distributed("配置文件里写的dump_path",
VS Code一键连接Notebook 视频介绍 前提条件 已经创建Notebook实例 ,实例已经开启SSH连接,实例状态为运行中。 请参考创建Notebook实例。 实例的密钥文件已经下载至本地的如下目录或其子目录中: Windows:C:\Users\{{user}} Mac/Linux:
pip uninstall ascend-vllm vllm transformers cd /home/ma-user/AscendCloud/AscendCloud-LLM/llm_tools/AutoAWQ bash build.sh 运行“examples/quantize.p
pip uninstall ascend-vllm vllm transformers cd /home/ma-user/AscendCloud/AscendCloud-LLM/llm_tools/AutoAWQ bash build.sh 运行“examples/quantize.p
"auth_type": "PUBLIC", "grants": [ { "user_id": "aa7efa8801024da08a7fa92dc0******", "user_name": "" } ] } 其中,加粗的斜体字段需要根据实际值填写: endpoint为ModelArts的终端节点。
"nodePool" : "nodepool-1", "flavor" : "modelarts.vm.2u4g.dcc", "count" : 1, "maxCount" : 1, "network" : {
conda activate python-3.9.10 bash install.sh 在/home/ma-user/AscendCloud/AscendCloud-LLM/llm_tools/llm_evaluation/benchmark_eval目录下安装依赖。 cd opencompass
pip uninstall ascend-vllm vllm transformers cd /home/ma-user/AscendCloud/AscendCloud-LLM/llm_tools/AutoAWQ bash build.sh 运行“examples/quantize.p
https://{endpoint}/v1/{project_id}/notebooks/a55eba18-1ebf-4e9a-8229-d2d3b593a3dc/tags/create { "tags" : [ { "key" : "test", "value" : "service-gpu"
和可靠性,避免重头训练耗费的时间与计算成本 支持训练数据使用SFS Turbo文件系统进行数据挂载,训练作业产生的中间和结果等数据可以直接高速写入到SFS Turbo缓存中,并可被下游业务环节继续读取并处理,结果数据可以异步方式导出到关联的OBS对象存储中进行长期低成本存储,从而