检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
建SFS Turbo文件系统。 图1 创建SFS Turbo 其中,文件系统类型推荐选用500MB/s/TiB或1000MB/s/TiB,应用于AI大模型场景中。存储容量推荐使用 6.0~10.8TB ,以存储更多模型文件。 图2 SFS类型和容量选择 ModelArts网络关联SFS
建SFS Turbo文件系统。 图1 创建SFS Turbo 其中,文件系统类型推荐选用500MB/s/TiB或1000MB/s/TiB,应用于AI大模型场景中。存储容量推荐使用 6.0~10.8TB ,以存储更多模型文件。 图2 SFS类型和容量选择 ModelArts网络关联SFS
将2创建的自定义策略授权给管理员用户组ModelArts_admin_group。 在统一身份认证服务控制台的左侧菜单栏中,选择“用户组”。在用户组页面单击对应用户组名称ModelArts_admin_group操作列的“授权”,勾选策略“Policy1_IAM_OBS”和“Policy2_Allo
账号、用户和密码等信息。 区域 指云资源所在的物理位置,同一区域内可用区间内网互通,不同区域间内网不互通。通过在不同地区创建云资源,可以将应用程序设计的更接近特定客户的要求,或满足不同地区的法律或其他要求。 可用区 一个可用区(AZ)是一个或多个物理数据中心的集合,有独立的风火水
MA_STUDIO TENSOR_BOARD WEB_IDE extensions Map<String,String> 通过应用专属URL直接打开应用进入远程开发模式。 ssh_keys Array of strings SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。
在ModelArts运行态的Notebook容器中,采用动态挂载特性,将OBS对象存储模拟成本地文件系统。其本质是通过挂载工具,将对象协议转为POSIX文件协议。挂载后应用层可以在容器中正常操作OBS对象。 动态挂载适用于哪些使用场景 场景1:数据集预览和操作,将承载数据集的OBS挂载至Notebook中,可以像本地文件系统一样操作数据集。
y > 我的资产 > 算法”,进入“我的算法”页面。 选择“我的订阅”页签,进入个人订阅的算法列表。 在算法列表选择需要使用的算法,单击“应用控制台”列的“ModelArts”。 在弹出的“选择云服务区域”页面选择ModelArts所在的云服务区域,单击“确定”跳转至ModelArts控制台的“算法管理
切换,不同工作空间中的工作互不影响。ModelArts的用户需要为不同的业务目标开发算法、管理和部署模型,此时可以创建多个工作空间,把不同应用开发过程的输出内容划分到不同工作空间中,便于管理和使用。 远程接入管理 使用本地IDE远程SSH连接ModelArts的Notebook开
解更多。 将自定义策略授权给开发者用户组user_group。 在统一身份认证服务控制台的左侧菜单栏中,选择“用户组”。在用户组页面单击对应用户组名称user_group操作列的“授权”,勾选策略“Policy1”、“Policy2”、“SWR Admin”。单击“下一步”。 SWR的权限有SWR
对于新建的资源池,支持在新建资源池时指定容器引擎空间大小,请参见创建资源池中“规格管理”参数下“高级选项”。 对于存量的资源池,可设置容器引擎空间大小应用于新增的节点。 方式一:单击某个资源池名称,进入资源池详情,单击“规格”页签,单击操作列的“调整容器引擎空间大小”,修改容器引擎空间大小(
参数类型 描述 name String 输出数据的名称。 type String 输出项类型。枚举值如下: obs:OBS model:AI应用元模型 config Map<String,Object> 输出配置。 表6 WorkflowErrorInfo 参数 参数类型 描述 error_code
的是http,就会遇到上述错误。反之,如果您选择的是http,但镜像里面实际提供的是https,也会遇到类似错误。 您可以创建一个新的AI应用版本,选择正确的协议(http或者https),重新部署在线服务或更新已有在线服务。 请求预测时间过长 报错:{"error_code":
Turbo。 详细操作指导请参考创建SFS Turbo文件系统。 其中,文件系统类型推荐选用500MB/s/TiB或1000MB/s/TiB,应用于AI大模型场景中。存储容量推荐使用 6.0~10.8TB ,以存储更多模型文件。 图5 SFS类型和容量选择 CCE集群关联SFS Turbo
服务个性化配置。 表6 ServiceLogConfig 参数 参数类型 描述 model_id String 公共参数。模型ID。通过调用查询AI应用列表接口可以获取。 model_name String 模型名称。 model_version String 模型版本。 weight Integer
状态码 状态码如表1那所示。 表1 状态码 状态码 编码 状态码说明 100 Continue 继续请求。 这个临时响应用来通知客户端,它的部分请求已经被服务器接收,且仍未被拒绝。 101 Switching Protocols 切换协议。只能切换到更高级的协议。 例如,切换到HTTP的新版本协议。
部署在线服务Predictor需要线上服务端根据AI引擎创建容器,较耗时;本地Predictor部署较快,最长耗时10s,可用以测试模型,不建议进行模型的工业应用。 当前版本支持部署本地服务Predictor的AI引擎为:“XGBoost”、“Scikit_Learn”、“PyTorch”、“Ten
object 规格的GPU信息。 npu_info NpuInfo object 规格的NPU信息。 source_type String 此规格应用于模型的类型,取值为空或auto,默认为空,代表是用户自己产生的模型;取值为auto时,代表是自动学习训练的模型,计费方式有差别。 is_free
表示张量并行。 PP 1 表示流水线并行。一般此值与训练节点数相等,与权重转换时设置的值相等。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加CP值(CP ≥ 2)。对应训练参数 context-parallel-size
correct[:k].reshape(-1).float().sum(0, keepdim=True) res.append(correct_k.mul_(100.0 / batch_size)) return res if __name__
ore所对应的Conda环境如下: 用户可以根据是否使用AI引擎参与功能调试,并选择不同的Conda环境。 Notebook:是一款Web应用,能够使用户在界面编写代码,并且将代码、数学方程和可视化内容组合到一个文档中。 JupyterLab插件:插件包括规格切换,分享案例到AI