检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发请求时model指定为lora1或者lora2即为LoRA推理。 --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,如果未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awq或smoothquant方式。该参数可与投机推理配合使用,实现投机校验模型的量化功能。
发请求时model指定为lora1或者lora2即为LoRA推理。 --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,如果未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awq或smoothquant方式。该参数可与投机推理配合使用,实现投机校验模型的量化功能。
obs:object:PutObject 管理OBS中的数据集 标注OBS数据 创建数据管理作业 管理表格数据集 DLI dli:database:displayAllDatabases dli:database:displayAllTables dli:table:describeTable 在数据集中管理DLI数据
获取软件和镜像。 docker pull {image_url} 启动容器镜像。启动前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。 docker run -it --net=host \ --device=/dev/davinci0 \ --device=/dev/davinci1
conf sysctl -p | grep net.ipv4.ip_forward 步骤二:启动镜像 启动容器镜像。启动前可以根据实际需要增加修改参数,Lora微调启动单卡,Fnetune全参启动八卡。 export work_dir="自定义挂载的工作目录" export co
rl}参见表2。 docker pull {image_url} 启动容器镜像。启动前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。训练至少需要单机8卡,推理需要单机单卡。 export work_dir="自定义挂载的工作目录" export contain
context-parallel-size 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加此值(≥ 2)。 (此参数目前仅适用于Llama3系列模型长序列训练) lr 2.5e-5 学习率设置。 min-lr 2.5e-6 最小学习率设置。
Increase the quota or delete any unnecessary services. 模型配额不足, 请增加配额或者删除已有服务。 增加配额,或删除不再使用的服务,然后重试。 400 ModelArts.3580 Model not purchased. 模型未购买。
ages\pip (python *.*) 在Windows环境中,如果提示“不是内部或外部命令”,请您在“环境变量”中设置“Path”,增加Python和pip的安装路径,具体步骤如下。pip的安装路径一般为Python所在目录的Scripts文件夹。 快捷键“win+R”,在“运行”窗口中输入“sysdm
为了帮助其他模型开发者更好的理解及使用您的模型,建议您提供模型的说明文档。单击“添加模型说明”,设置“文档名称”及其“URL”。模型说明支持增加3条。 “配置文件” 系统默认关联您存储在OBS中的配置文件。打开开关,您可以直接在当前界面查看或编辑模型配置文件。 说明: 该功能即将下
sysctl -p | grep net.ipv4.ip_forward 步骤二:启动镜像 启动容器镜像,推理只需要启动单卡,启动前可以根据实际需要增加修改参数。 export work_dir="自定义挂载的工作目录" export container_work_dir="自定义挂载到容器内的工作目录"
本地代码目录:保持默认即可。 工作目录:选择代码文件目录,例如/home/ma-user/sdxl-train/user-job-dir/code/。 输出:单击“增加训练输出”,将模型保存到OBS中。参数名称为output,数据存储位置选择OBS桶中指定文件夹,例如sdxl-train/checkpoi
程。 “数据选择”表示从全量数据中选择数据子集的过程。 “数据增强”表示通过简单的数据扩增例如缩放、裁剪、变换、合成等操作直接或间接的方式增加数据量。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
ge_url}获取请参见表1。 docker pull {image_url} 步骤三 启动容器镜像 启动容器镜像,启动前可以根据实际需要增加修改参数。 docker run -itd --net=host \ --device=/dev/davinci0 \ --device=/dev/davinci1
ge_url}获取请参见表1。 docker pull {image_url} 步骤三:启动容器镜像 启动容器镜像,启动前可以根据实际需要增加修改参数。 docker run -itd \ --device=/dev/davinci0 \ --device=/dev/davinci1
-size 。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加CP值(CP ≥ 2)。对应训练参数 context-parallel-size 。 (此参数目前仅适用于Llama3系列模型长序列训练)
获取软件和镜像 docker pull {image_url} 启动容器镜像。启动前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。 docker run -itd \ --name ${container_name} \ -v /sys/fs/cgroup:/sys/fs/cgroup:ro
i-server服务,负责接收推理请求,向全量或增量推理实例分发请求,收集推理结果并向客户端返回推理结果。服务调度实例不占用显卡资源,建议增加1个容器,也可以在全量推理或增量推理的容器上启动。 前提条件 已准备好Server环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Re
i-server服务,负责接收推理请求,向全量或增量推理实例分发请求,收集推理结果并向客户端返回推理结果。服务调度实例不占用显卡资源,建议增加1个容器,也可以在全量推理或增量推理的容器上启动。 前提条件 已准备好Server环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Re
import_origin 否 String 数据来源。可选值如下: obs:OBS桶(默认值) dws:GaussDB(DWS)服务 dli:DLI服务 rds:RDS服务 mrs:MRS服务 inference:推理服务 import_path 是 String 导入的OBS路径或manifest路径。