检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
req_uri String 批量任务中调用的推理路径。 mapping_type String 输入数据的映射类型,取值为:file或csv。 mapping_rule Map 输入参数与csv数据的映射关系,仅当mapping_type为csv时,会返回。 父主题: 服务管理
”追加到“obs://bucket_name/obs_file.txt”文件中。 1 2 import moxing as mox mox.file.append('obs://bucket_name/obs_file.txt', 'Hello World!') 也可以使用打开文件对象并追加的方式来实现,两者是等价的。
问题现象 通过API接口选择自定义镜像导入创建模型,配置了运行时依赖,没有正常安装pip依赖包。 原因分析 自定义镜像导入不支持配置运行时依赖,系统不会自动安装所需要的pip依赖包。 处理方法 重新构建镜像。 在构建镜像的dockerfile文件中安装pip依赖包,例如安装Flask依赖包。
境、数据管理、在线服务等功能将不能正常使用。该API支持管理员给IAM子用户设置委托,支持设置当前用户的访问密钥。调用该API需要在IAM系统里配置Security Administrator权限。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API E
mpletions"拼接而成。部署成功后的在线服务详情页中可查看API接口公网地址。 图1 API接口公网地址 --app-code:获取方式见访问在线服务(APP认证)。 --tokenizer:tokenizer路径,HuggingFace的权重路径。若服务部署在Notebo
ignore 系统已自动过跳过这张图片,不需要用户处理。 2 tf-decode failed 图片无法被TensorFlow解码且不能修复 ignore 系统已跳过这张图片,不需要用户处理。 3 size over 图片大于5MB resize to small 系统已将图片压缩到5MB以内处理,不需要用户处理。
训练作业的代码目录。如:“/usr/app/”。应与boot_file一同出现,如果填入id或subscription_id+item_version_id则无需填写。 boot_file String 训练作业的代码启动文件,需要在代码目录下。如:“/usr/app/boot.py”。应与
MindSpore:MindSpore 2.3.0 FrameworkPTAdapter:6.0.RC3 如果用到CCE,版本要求是CCE Turbo v1.28及以上 软件包获取地址 软件包名称 软件包说明 获取地址 AscendCloud-6.3.908-xxx.zip 包含 三
"create_time" : 1606373999627, "result" : "xxx", "version_id" : "XwTuRqI9En7xuZskW70", "is_current" : true } 状态码 状态码 描述 200 OK 401 Unauthorized
read_hdf_origin(local_file, key, mode, **kwargs) mox.file.remove(local_file) return result setattr(NDFrame, 'to_hdf', to_hdf_override) setattr(pytables
训练作业的代码目录。如:“/usr/app/”。应与boot_file一同出现,如果填入id或subscription_id+item_version_id则无需填写。 boot_file String 训练作业的代码启动文件,需要在代码目录下。如:“/usr/app/boot.py”。应与
--seq-length 8192 \ --handler-name GeneralInstructionHandler \ --append-eod \ --tokenizer-not-use-fast 参数说明: - input:SFT全参微调数据的存放路径。
exec format error”。 这种报错一般是因为所用镜像系统引擎和构建镜像的系统引擎不一致引起的,例如使用的是x86的镜像却标记的是arm的系统架构。 可以通过查看模型详情看到配置的系统运行架构。基础镜像的系统架构详情可以参考推理基础镜像列表。 父主题: 模型管理
作目录根据实际修改 cd MiniCPM-2B-sft-bf16 && git reset --hard 4ec1634 && git apply ${work_dir}/llm_train/AscendFactory/third-party/minicpm-2b.patch MiniCPM3-4B
0选择的安装包, 因此下文默认安装CUDA 12.0。 进入CUDA Toolkit页面。 选择Operating System、Architecture、Distribution、Version、Installer Type后,会生成对应的安装命令,复制安装命令并运行即可。 图2 选择版本
naconda(kernel依赖的python环境)的pip进行安装。 使用命令jupyter labextension list --app-dir=/home/ma-user/.lab/console查询 前端插件安装目录为:/home/ma-user/.local/shar
数据未保存至/cache目录或者/home/ma-user/目录(/cache会软连接成/home/ma-user/),导致数据占满系统目录。系统目录仅支持系统功能基本运行,无法支持大数据存储。 部分训练任务会在训练过程中生成checkpoint文件,并进行更新。如更新过程中,未删除历
2/use/downloads.html 需要下载的安装包与操作系统有关,请根据需要选择合适的安装包。 如果操作系统为Linux aarch64,请下载mindspore-lite-2.2.10-linux-aarch64.tar.gz。 如果操作系统为Linux x86_64,请下载mindspore-lite-2
公网访问在线服务有以下认证方式,API调用请参见认证详情: 通过Token认证的方式访问在线服务 通过AK/SK认证的方式访问在线服务 通过APP认证的方式访问在线服务 父主题: 访问在线服务支持的访问通道
MA-Advisor性能调优建议工具使用指导 MA-Advisor是一款迁移性能问题自动诊断工具,其集成了昇腾自动诊断工具msprof-analyze,并在ModelArts Standard的Jupyter lab平台进行了插件化,能快速分析和诊断昇腾场景下PyTorch性能劣化问题并给出相关调优建议。