检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
VS Code中操作类似。 图2 PyCharm环境开启Terminal 在本地IDE的Terminal中使用Moxing上传OBS文件到Notebook的操作示例如下: #手动source进入开发环境 cat /home/ma-user/README #然后选择要source的环境
Monitor”,展示“CPU使用率”和“内存使用率”。 图4 资源监控 分享副本到AI Gallery。单击右上角的,将修改后的Notebook样例保存分享到AI Gallery中,供自己或他人学习使用。 图5 分享到AI Gallery 分享成功后,通过分享链接可以打开分享的副本,也可以在AI
克隆GitHub开源仓库文件到JupyterLab 在Notebook的JupyterLab中,支持从GitHub开源仓库Clone文件。 通过JupyterLab打开一个运行中的Notebook。 单击JupyterLab窗口上方导航栏的ModelArts Upload Fil
撤销审批:单击用户操作列的“撤销”可以取消已审批通过或已拒绝的用户权限,用户的“审批状态”从“已审批”变成“未审批”,或者从“已拒绝”变成“未审批”。 同意用户使用该资产:单击用户操作列的“同意”可以通过用户的申请,用户的“审批状态”从“未审批”变成“已审批”。 拒绝用户使用该资产:单击用户操作列的“拒
云硬盘EVS 用于存储运行Notebook实例时产生的数据。 磁盘规格默认为5GB,从Notebook实例创建成功起,直至删除成功,每GB按照规定费用收费。 具体费用可参见云硬盘价格详情。 注意: 存储到EVS中的数据需在EVS控制台进行手动删除。如果未删除,则会按照EVS的计费规则进行持续计费。
Team Manager”,“Team Manager”只能设置为一个人。 需要注意的是:目前不支持从标注任务中删除labeler。labeler的标注必须通过审核后,才能同步到最终结果,不支持单独分离操作。 图1 当前账号添加成员 图2 其他账号添加成员 成员添加完成后,团队详情区域中将呈现此成员的信息。
#下载一个OBS文件夹sub_dir_0,从OBS下载至Notebook mox.file.copy_parallel('obs://bucket_name/sub_dir_0', '/home/ma-user/work/sub_dir_0') #下载一个OBS文件obs_file.txt,从OBS下载至Notebook
--configFile=config.ini 注意:推理应用开发时,需要使用模型的Resize功能,改变输入的shape。而且Resize操作需要在数据从host端复制到device端之前执行,下面是一个简单的示例,展示如何在推理应用时使用动态Shape。 import mindspore_lite as
<jpg_path>: 人物图片路径,需要指定到具体的文件,例如 xxx/xxx.jpg。 <audio_path>:音频路径,需要指定到具体的文件,例如 xxx/xxx.mp4。 <output_path>:视频结果输出路径,需要指定到具体的输出文件名,例如 xxx/xxx.mp4。
<jpg_path>: 人物图片路径,需要指定到具体的文件,例如 xxx/xxx.jpg。 <audio_path>:音频路径,需要指定到具体的文件,例如 xxx/xxx.mp4。 <output_path>:视频结果输出路径,需要指定到具体的输出文件名,例如 xxx/xxx.mp4。
objects 不导入包含指定标签的样本。 final_annotation 否 Boolean 是否导入到最终状态。可选值如下: true:导入到最终状态(默认值) false:不导入到最终状态 import_annotations 否 Boolean 是否导入标签。可选值如下: true:导入标签(默认值)
创建模型时,如果是从OBS中导入元模型,则需要符合一定的模型包规范。 模型包规范适用于单模型场景,如果是多模型场景(例如含有多个模型文件)推荐使用自定义镜像方式。 ModelArts推理平台不支持的AI引擎,推荐使用自定义镜像方式。 请参考创建模型的自定义镜像规范和从0-1制作自定义镜像并创建模型,制作自定义镜像。
在镜像详情页,选择“镜像文件”页签。单击操作列的“下载”,选择保存路径单击“确认”,即可下载文件到本地。 删除文件 在镜像详情页,选择“镜像文件”页签。单击操作列的“删除”,确认后即可将已经托管的文件从AI Gallery仓库中删除。 文件删除后不可恢复,请谨慎操作。 下架镜像 AI Gallery中已上架的资产支持下架操作。
Gallery首页,选择“资产集市 > 模型”,进入模型页面。 单击“发布”,弹出“选择云服务区域”,选择区域后单击“确定”跳转到“发布资产到AI Gallery”页面。 发布ModelArts模型 如果是发布新资产。 “发布方式”选择“创建新资产”。 填写“资产标题”。即在AI Gallery显示的资产名称。
发环境,多种操作流程和模式,方便开发者编码扩展,快速构建模型及应用。 产品架构 ModelArts是一个一站式的开发平台,能够支撑开发者从数据到AI应用的全流程开发过程。包含数据处理、模型训练、AI应用管理、AI应用部署等操作,并且提供AI Gallery功能,能够在市场内与其他开发者分享模型。
注册镜像。登录ModelArts控制台,在左侧导航栏选择“镜像管理”,进入镜像管理页面。单击“注册镜像”,镜像源即为推送到SWR中的镜像。请将完整的SWR地址复制到这里即可,或单击可直接从SWR选择自有镜像进行注册,类型加上“GPU”,如图1所示。 图1 注册镜像 登录ModelArts管理控制台,在左侧导航栏中选择“开发空间
tar.gz rm -rf stable-diffusion-xl-model.tar.gz 也可以从HuggingFace官网下载到本地后,通过docker cp命令复制到容器中/home/ma-user目录下,如下图所示。 在线下载地址: https://huggingface
模型创建完成后,可以通过创建新版本,导入不同的元模型进行调优。 描述 模型的简要描述。 填写元模型来源及其相关参数。当“元模型来源”选择“从对象存储服务(OBS)中选择”时,其相关的参数配置请参见表2。 针对从OBS导入的元模型,ModelArts要求根据模型包规范,编写推理代码和配置文件,并将推理代码和配置文件
通过容器名称进入容器中。 docker exec -it ${container_name} bash Step4 下载原始模型包 从HuggingFace官网下载moondream2模型包到本地,下载地址:https://huggingface.co/vikhyatk/moondream2/tree/2024-03-06。
MindSpeed昇腾大模型加速库 |──ModelLink/ # ModelLink端到端的大语言模型方案 |——megatron/ # 注意:该文件夹从Megatron-LM中复制得到 |——... 父主题: 准备镜像