检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据集的数据类型,与dataset_type参数二选一,推荐使用data_type。可选值如下: IMAGE:图像 TEXT:文本 AUDIO:音频 TABLE:表格 VIDEO:视频 PLAIN:自由格式 dataset_type 否 Integer 根据数据集类型查询数据集列表,与data_type参数二选一。可选值如下:
提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 如果要使用自动重启功能,资源规格必须选择八卡规格。 适配的CANN版本是cann_8
提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 如果要使用自动重启功能,资源规格必须选择八卡规格。 适配的CANN版本是cann_8
如果用户有自定义开发的需要,比如查看和编辑代码、数据预处理、权重转换等操作,可通过Notebook环境进行,并且Notebook环境具有一定的存储空间,可与OBS中的数据相互传递。 训练 预训练/微调 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。 父主题: 主流开源大
AppKey/AppSecret认证:通过AppKey与AppSecret对请求进行加密签名,可标识发送方并防止请求被修改。使用AppKey/AppSecret认证时,您需要使用专门的签名SDK对请求进行签名。 AppKey:APP访问密钥ID。与私有访问密钥关联的唯一标识符;访问密钥ID和
com/v3/auth/tokens Content-Type: application/json 请求消息体 请求消息体通常以结构化格式发出,与请求消息头中Content-type对应,传递除请求消息头之外的内容。若请求消息体中参数支持中文,则中文字符必须为UTF-8编码。 每个接口
Fine-tuning):是一种利用有标签数据进行模型训练的方法。 它基于一个预先训练好的模型,通过调整模型的参数,使其能够更好地拟合特定任务的数据分布。 与从头开始训练模型相比,监督式微调能够充分利用预训练模型的知识和特征表示,从而加速训练过程并提高模型的性能。 训练阶段下有不同的训练策略,分为
ingular(不支持)。 values 否 Array of strings 资源约束键对应值。 operator 否 String 键与值关系,当前只支持in。例如flavor_type in [CPU,GPU]。 表13 AlgorithmAdvancedConfig 参数
Fine-tuning):是一种利用有标签数据进行模型训练的方法。 它基于一个预先训练好的模型,通过调整模型的参数,使其能够更好地拟合特定任务的数据分布。 与从头开始训练模型相比,监督式微调能够充分利用预训练模型的知识和特征表示,从而加速训练过程并提高模型的性能。 训练阶段下有不同的训练策略,分为
pretrain # 预训练输出权重 |── models #原始权重与tokenizer目录,需要用户手动创建,后续操作步骤中会提示 |── Llama2-70B |── tokenizers
Fine-tuning):是一种利用有标签数据进行模型训练的方法。 它基于一个预先训练好的模型,通过调整模型的参数,使其能够更好地拟合特定任务的数据分布。 与从头开始训练模型相比,监督式微调能够充分利用预训练模型的知识和特征表示,从而加速训练过程并提高模型的性能。 训练阶段下有不同的训练策略,分为
“权限名称”勾选“OBS Administrator”。开发者用户只需要配置OBS的委托授权即可,允许开发者用户在使用Notebook时,与OBS服务交互。 勾选“我已经详细阅读并同意《 ModelArts服务声明 》”,单击“创建”。 在“权限管理”页面,再次单击“添加授权”,
版本不可以出现例如01.01.01等以0开头的版本号形式。 否 str、Placeholder runtime 模型运行时环境,runtime可选值与model_type相同。 否 str、Placeholder description 模型备注信息,1-100位长度,不能包含&!'"<>=
le)、不支持(singular)。 value Array of strings 资源约束键对应值。 operator String 键与值关系,当前只支持in。例如flavor_type in [CPU,GPU]。 表14 advanced_config 参数 参数类型 描述
自定义部署模型服务的简介。支持256字符。 模型设置 部署模型 单击“选择模型”,选择“模型广场”或“我的模型”下面的模型。 资源设置 资源池类型 资源池分为公共资源池与专属资源池。 公共资源池供所有租户共享使用。 专属资源池需单独创建,不与其他租户共享。 实例规格 选择实例规格,规格中描述了服务器类型、型号等信息。
步骤中会提示 |── Llama2-70B |── models #原始权重与tokenizer目录,需要用户手动创建,后续操作步骤中会提示 |── Llama2-70B |── training_data
在线服务开关默认关闭,节点走部署服务的流程;如果需要更新服务,则手动打开开关,选择相应的在线服务即可。 进行服务更新时,需要保证被更新的服务所使用的模型与配置的模型名称相同。 父主题: 开发Workflow命令参考
训练一个自回归层。这使得其训练成本相较于训练一个独立的LLM模型要小得多。 为每个模型提供针对性的投机模型: Eagle的模型大小及结构,与基模型的某一层完全相同,这使得它的大小远远小于其基模型。解决了对于部分原始LLM模型,找不到合适的投机模型的问题。 投机小模型训练端到端示例
步骤中会提示 |── Llama2-70B |── models #原始权重与tokenizer目录,需要用户手动创建,后续操作步骤中会提示 |── Llama2-70B |── training_data
echo " -l, --max-seq-len: 输入长度+输出长度的最大值,需要在8192上加2^的若干次方数" echo " -i, --node-ips: 逗号分隔的节点IP地址" echo "