检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
功能,需要新建一个OBS挂载专属目录如“/obs-mount/”,避免选择存量目录覆盖已有文件。OBS挂载仅开放对挂载目录文件新增、查看、修改功能,如果需要删除文件请到OBS并行文件系统中手动删除。 健康检查接口示例如下。 URI GET /health 请求示例curl -X GET
如果使用模型训练后的权重文件进行推理,模型训练及训练后的权重文件转换操作可以参考相关文档章节中提供的模型训练文档。 Step4 启动容器镜像 启动容器镜像前请先按照参数说明修改${}中的参数。 docker run -itd \ --device=/dev/davinci0 \ --device=/dev/davinci1
当选择ChatGLM3-6B、GLM-4-9B、Qwen-7B、Qwen-14B和Qwen-72B模型框架进行模型调优时,在创建模型时需要修改权重配置才能正常运行模型。详细配置请参见修改权重配置。 表1 支持模型微调的模型 模型名称 全参微调 lora微调 Baichuan2-13B √ √ ChatGLM3-6B
_url}获取请参见表1。 docker pull {image_url} 步骤三 启动容器镜像 启动容器镜像,启动前可以根据实际需要增加修改参数。 docker run -itd --net=host \ --device=/dev/davinci0 \ --device=/dev/davinci1
str四种类型 ] ), # 训练使用的算法对象,示例中使用AIGallery订阅的算法;部分算法超参的值如果无需修改,则在parameters字段中可以不填写,系统自动填充相关超参值 inputs=wf.steps.JobInput(name="data_url"
件。模型训练及训练后的权重文件转换操作可以参考相关文档章节中提供的模型训练文档。 Step4 启动容器镜像 启动容器镜像前请先按照参数说明修改${}中的参数。 docker run -itd \ --device=/dev/davinci0 \ --device=/dev/davinci1
import cv2 cv2.imread('obs://bucket_name/xxx.jpg', cv2.IMREAD_COLOR) 修改为如下代码: 1 2 3 4 import cv2 import numpy as np import moxing as mox img
该指令无法完全模拟线上,主要是由于-v挂载进去的目录是root权限。在线上,模型文件从OBS下载到/home/mind/model目录之后,文件owner将统一修改为ma-user。 在本地机器上启动另一个终端,执行以下验证指令,得到符合预期的推理结果。 curl https://127.0.0.1:8080/${推理服务的请求路径}
服务 在llm_inference/ascend_vllm/目录下通OpenAI服务API接口启动服务,具体操作命令如下,可以根据参数说明修改配置。 (1)非多模态 python -m vllm.entrypoints.openai.api_server --model ${container_model_path}
团队标注成员任务状态。可选值如下: 6:已创建。 0:启动中。 1:运行中。 2:验收中。 3:通过,即团队标注任务已完成。 4:驳回,即需要重新修改标注和审核工作。 update_time Long 团队标注成员任务更新时间。 worker_id String 团队标注成员ID。 workforce_task_name
方式一:图形界面的软件获取服务的IP和端口号 图6 接口返回示例 方式二:Python语言获取IP和端口号 Python代码如下,下述代码中以下参数需要手动修改: project_id:用户项目ID,获取方法请参见获取项目ID和名称。 service_id:服务ID,在服务详情页可查看。 REGI
训练容器的“${MA_JOB_DIR}/demo-code”目录中,demo-code为OBS存放代码路径的最后一级目录,用户可以根据实际修改。 请注意不要将训练数据放在代码目录路径下。训练数据比较大,训练代码目录在训练作业启动后会下载至后台,可能会有下载失败的风险。建议训练代码目录大小小于或等于50MB。
头”开关,系统会导入文件的第一行(表头)作为列名,无需再手动修改Schema信息。 如果您的原始表格中没有表头,需关闭“导入是否包含表头”开关,从OBS选择数据后,Schema信息的列名默认为表格中的第一行数据,请更改Schema信息中的“列名”为attr_1、attr_2、……
填写基本信息。基本信息包括“名称”、“版本”和“描述”。其中“版本”信息由系统自动生成,按“V0001”、“V0002”规则命名,用户无法修改。 您可以根据实际情况填写“名称”和“描述”信息。 图1 创建数据处理基本信息 设置场景类别。场景类别当前支持“图像分类”和“物体检测”。
边缘服务状态异常,异常信息:实例不存在 Update service status to abnormal, deployment is not exist. 请修改实例后重试。 正常 实例在当前边缘节点状态为xxx,相关信息:xxx Instance is %s in node(%s), %s - 正常
该指令无法完全模拟线上,主要是由于-v挂载进去的目录是root权限。在线上,模型文件从OBS下载到/home/mind/model目录之后,文件owner将统一修改为ma-user。 在本地机器上启动另一个终端,执行以下验证指令,得到符合预期的推理结果。 curl https://127.0.0.1:8080/${推理服务的请求路径}
X.git cd YOLOX git checkout 4f8f1d79c8b8e530495b5f183280bab99869e845 修改“requirements.txt”中的onnx版本,改为“onnx>=1.12.0”。 将“yolox/data/datasets/coco
ReadOnlyAccess权限。 在ModelArts管理控制台,单击“权限管理 ”,在对应委托的操作列,单击“查看权限 > 去IAM修改委托权限”。 在新页面中,单击“授权记录 > 授权”,搜索“IAM ReadOnlyAccess”,勾选后单击“下一步”并单击“确认”。 验证权限是否配置成功。
服务 在llm_inference/ascend_vllm/目录下通OpenAI服务API接口启动服务,具体操作命令如下,可以根据参数说明修改配置。 (1)非多模态 python -m vllm.entrypoints.openai.api_server --model ${container_model_path}
myhuaweicloud.com/pypi/web/simple --trusted-host mirrors.myhuaweicloud.com 修改测试代码,注释掉以下文件的断言所在行。 vim /workspace/Megatron-DeepSpeed/megatron/model/fused_softmax