检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Llama2-70b为例,多台机器执行训练启动命令如下。进入代码目录 /home/ma-user/ws/llm_train/AscendSpeed 下执行启动脚本。 多机执行命令为:sh scripts/llama2/0_pl_lora_70b.sh <MASTER_ADDR=xx.xx.xx
提供“自动学习白盒化”能力,开放模型参数、自动生成模型,实现模板化开发,提高开发效率 采用自动深度学习技术,通过迁移学习(只通过少量数据生成高质量的模型),多维度下的模型架构自动设计(神经网络搜索和自适应模型调优),和更快、更准的训练参数自动调优自动训练 采用自动机器学习技术,基于信息熵上限近似模型的树
务,和具体的AI引擎解耦,在ModelArts支持的所有AI引擎(TensorFlow、MXNet、PyTorch、MindSpore等)下均可以使用。 MoXing Framework模块提供了OBS中常见的数据文件操作,如读写、列举、创建文件夹、查询、移动、复制、删除等。 在ModelArts
为例,多台机器执行训练启动命令如下。多机启动需要在每个节点上执行。 进入代码目录 /home/ma-user/ws/llm_train/AscendSpeed 下执行启动脚本。xxx-Ascend请根据实际目录替换。 # 多机执行命令为:sh scripts/llama2/0_pl_pretrain_70b
algorithm_type_zh String AutoSearch算法类型,中文描述。 algorithm_names Array of strings 该算法类型下所有算法的名称。 请求示例 查询自动化搜索作业支持的yaml配置模板的信息 GET https://endpoint/v2/{project
operationTime String 统计的时间。 表4 statistics 参数 参数类型 描述 status status object 不同状态下的资源池统计信息。 表5 status 参数 参数类型 描述 creating Integer 正在创建中的资源池数量。 created Integer
Prefill特性。 max-num-batched-tokens int >=256且是256的倍数 在Chunked Prefill模式下,该参数限制最大切分长度,允许比max-model-len小。推荐使用4096、8192甚至更大。 执行推理参考 Ascend vllm使用Chunked
json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 问题3:使用离线推理时,性能较差或精度异常。
String 难例筛选任务ID。 task_status String 任务状态。 time Long 执行时间。 update_at Long 更新时间。 表15 SampleLabels 参数 参数类型 描述 labels Array of SampleLabel objects 样
exists('obs://modelarts-test08/moxing/test01') 执行结果如图3所示。注意,每输入一行代码,单击下“Run”运行。您也可以进入OBS管理控制台,检查“modelarts-test08/moxing”目录,查看“test01”文件夹是否已创
数据预处理中的环境变量 环境变量 示例 参数说明 RUN_TYPE pretrain、sft、lora 数据预处理区分: 预训练场景下数据预处理,默认参数:pretrain 微调场景下数据预处理,默认:sft / lora ORIGINAL_TRAIN_DATA_PATH /home/ma-use
数据预处理中的环境变量 环境变量 示例 参数说明 RUN_TYPE pretrain、sft、lora 数据预处理区分: 预训练场景下数据预处理,默认参数:pretrain 微调场景下数据预处理,默认:sft / lora ORIGINAL_TRAIN_DATA_PATH /home/ma-use
返回多条正常结果。 不使用beam_search场景下,n取值建议为1≤n≤10。如果n>1时,必须确保不使用greedy_sample采样,也就是top_k > 1,temperature > 0。 使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。
ts-ascend.git 图1 下载示例代码 昇腾迁移案例在“~/work/modelarts-ascend/notebooks/”路径下,打开对应的“.ipynb”案例后运行即可。 ResNet50模型迁移到Ascend上进行推理:通过使用MindSpore Lite对Res
删除资源池 释放游离节点 如果您的资源中存在游离节点(即没有被纳管到资源池中的节点),您可在“AI专属资源池 > 弹性集群Cluster >节点”下查看此类节点的相关信息。 针对游离节点,可以通过以下方式释放节点资源: 如果是“包年/包月”且资源未到期的节点,您可单击操作列的“退订”,即
json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 问题3:使用离线推理时,性能较差或精度异常。
json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 问题3:使用离线推理时,性能较差或精度异常。
用。通用的训练任务调优、参数调优可以通过可观测数据来进行分析与优化,一般来说分段对比GPU的运行性能会有比较好的参考。算子级的调优某些情况下如果是明显的瓶颈或者性能攻坚阶段,考虑到门槛较高,可以联系华为工程师获得帮助。 精度问题根因和表现种类很多,会导致问题定位较为复杂,一般还是
pip install Shapely 在JupyterLab中新建ipynb文件 进入JupyterLab主页后,可在“Notebook”区域下,选择适用的AI引擎,单击后将新建一个对应框架的ipynb文件。 由于每个Notebook实例选择的工作环境不同,其支持的AI框架也不同,下
据中心基础设施相比,可用区具有更高的可用性、容错性和可扩展性。 ModelArts通过对DB的数据进行备份,保证在原数据被破坏或损坏的情况下可以恢复业务。 开发环境故障恢复 针对用户创建的Notebook计算实例,后台计算节点故障后会立即自动迁移到其他可用节点上,实例状态会自动恢