检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Qwen-VL基于DevServer适配PyTorch NPU的Finetune训练指导(6.3.910) Qwen-VL是规模视觉语言模型,可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。具有强大的性能、多语言对话、多图交错对话、支持中文开放域定位、细粒度识别和理解等特点
主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910) 推理场景介绍 准备工作 部署推理服务 推理性能测试 推理精度测试 推理模型量化 eagle投机小模型训练 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题
主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.907) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理
主流开源大模型基于Standard+OBS+SFS适配PyTorch NPU训练指导(6.3.907) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
推理精度测试 本章节介绍如何进行推理精度测试,请在Notebook的JupyterLab中另起一个Terminal,进行推理精度测试。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation
主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.906) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理
准备权重 获取对应模型的权重文件,获取链接参考表1。 在创建OBS桶创建的桶下创建文件夹用以存放权重和词表文件,例如在桶standard-llama2-13b中创建文件夹llama2-13B-chat-hf。 参考文档利用OBS-Browser-Plus工具将步骤1下载的权重文件上传至步骤
设置组件启动命令和生命周期 容器部署组件时,ServiceStage提供了回调函数,在应用组件启动时和启动后生命周期的特定阶段执行调用,比如应用组件在停止前希望执行某项操作,就可以注册相应的钩子函数。 生命周期回调函数说明 ServiceStage目前提供的生命周期回调函数如下所示
查看基线泳道组件基线化历史 本章节指导您查看基线泳道组件的基线化、回滚日志。 前提条件 待操作基线泳道已执行过基线化灰度泳道组件操作,请参考基线化基线泳道组件。 基线泳道组件已执行过回滚操作,请参考回滚基线泳道组件。 查看基线泳道组件基线化历史 登录ServiceStage控制台。
克隆基线泳道组件到灰度泳道 灰度泳道创建后,需要根据实际业务需要创建灰度版本组件,用于调整流量至灰度泳道验证业务。 克隆基线泳道组件,会生成批量克隆发布单,请参考发布管理概述。 本章节指导您克隆基线泳道组件到灰度泳道,为灰度泳道快速创建灰度版本组件。 前提条件 目标基线泳道下已关联组件
使用容器部署方式基于YAML配置创建并部署组件 本章节指导您使用容器部署方式基于YAML配置创建组件、保存组件草稿和部署组件,可以满足您通过K8s部署模板灵活部署组件的需求,适用于对CCE有深度了解的用户。 草稿是指组件处于创建过程中,尚未完成参数配置时提前保存,防止已配置参数因为关闭页面等因素丢失
查看Lite Server服务器详情 在您创建了Lite Server服务器后,可以通过管理控制台查看和管理您的Lite Server服务器。本节介绍如何查看Lite Server服务器的详细信息,包括名称/ID、规格、镜像等信息。 在弹性节点Server的节点列表页中,可以查看Server
替换弹性IP后应用访问方式失效后怎么办? 问题描述 当外网负载均衡绑定到应用时,如果把负载均衡的弹性IP替换掉,则应用访问方式上无法自动更新。 解决方法 需要手动删除之前的记录,重新添加新更换的IP,以新IP为访问地址的ELB访问方式。 父主题: 应用运维
在ERS管理已纳管的容器集群 将华为云上购买的CCE集群纳管后,可以进行统一管理,本章节介绍部分主要管理操作。 查看集群详情 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择“运维 > 弹性资源服务(ERS)”。 选择左侧导航栏的“集群列表”。 在集群列表单击需查看详情的集群名称
使用VS Code创建并调试训练作业 由于AI开发者会使用VS Code工具开发算法或模型,为方便快速将本地代码提交到ModelArts的训练环境、贴近本地开发习惯地编写启动命令,ModelArts提供了一个训练作业场景下的IDE插件ModelArts-HuaweiCloud,用户通过简易的操作
使用PyCharm ToolKit创建并调试训练作业 由于AI开发者会使用PyCharm工具开发算法或模型,为方便快速将本地代码提交到ModelArts的训练环境,ModelArts提供了一个PyCharm插件工具PyCharm ToolKit,协助用户完成SSH远程连接Notebook
ma-cli configure鉴权命令 鉴权信息说明 在虚拟机及个人PC场景,需要配置鉴权信息,目前支持用户名密码鉴权(默认)和AK/SK鉴权; 在使用账号认证时,需要指定username和password;在使用IAM用户认证时,需要指定account、username和password
自定义脚本代码示例 从OBS中导入模型文件创建模型时,模型文件包需符合ModelArts的模型包规范,推理代码和配置文件也需遵循ModelArts的要求。 本章节提供针对常用AI引擎的自定义脚本代码示例(包含推理代码示例)。模型推理代码编写的通用方法及说明请见模型推理代码编写说明。
根据2020中国低代码平台十大趋势报告,未来低代码在开发平台云化,低代码与业务系统集成、物联网整合和AI平台协同等方面将持续探索和发展,加速客户化开发,政企客户、行业厂商和低代码将形成更深入的合作。 久其则始终服务大型政企客户,面对的是最复杂的IT环境和业务需求。
huaweicloud-iot-device-sdk-go提供设备接入华为云IoT物联网平台的Go版本的SDK,提供设备和平台之间通讯能力,以及设备服务、网关服务、OTA等高级服务。IoT设备开发者使用SDK可以大大简化开发复杂度,快速的接入平台。