-
发布技术文章(AI说) - AI开发平台ModelArts
y > 我的资料”进入我的资料页面,查看“开启邮箱通知”开关,默认是打开的。如果未打开请开启。 选择“评论”中输入评论内容,单击“发表评论”,即可成功发布评论。AI说发布者可收到评论的通知,AI说评论者也会收到评论回复的通知,所有用户均可查看资产评论并回复评论,对评论点赞等。 删除发布的技术文章
-
配置ModelArts委托权限 - AI开发平台ModelArts
rts服务声明》”,然后单击“创建”。 图1 配置委托访问授权 完成配置后,在ModelArts控制台的全局配置列表,可查看到此账号的委托配置信息。 图2 查看委托配置信息 父主题: 权限配置
-
注册伙伴 - AI开发平台ModelArts
信息。 单击“提交”,AI Gallery的运营人员将会审核您的申请,后续您可以在“我的Gallery > 合作伙伴”里查看审核进展以及审核结果。 图1 查看审核进度 父主题: 合作伙伴
-
训练作业性能降低 - AI开发平台ModelArts
通过CloudShell登录到Linux工作页面,检查GPU工作情况: 通过输入“nvidia-smi”命令,查看GPU工作是否异常。 通过输入“nvidia-smi -q -d TEMPERATURE”命令, 查看TEMP参数是否存在异常, 如果温度过高,会导致训练性能下降。 父主题: 训练作业性能问题
-
管理AI应用 - AI开发平台ModelArts
在AI应用详情页,选择“设置”页签。 在“环境变量管理”处,可以查看、新增、修改、删除环境变量。 最多支持创建100个环境变量。变量名称不可重复,只能由下划线、字母与数字组成且不能以数字开头。 查看环境变量的值:单击,可以查看当前环境变量的值。 新增环境变量:单击“新增”,在编辑环境变量弹
-
Step4 创建开发环境并使用 - AI开发平台ModelArts
装的pytorch 1.8已经能够使用。 图3 创建一个ipynb文件 再打开一个Terminal,查看ffmpeg和gcc的版本,是Dockerfile中安装的版本。 图4 查看ffmpeg和gcc的版本 父主题: 在ECS上构建自定义镜像并在Notebook中使用
-
GPU A系列裸金属服务器使用CUDA cudaGetDeviceCount()提示CUDA initializat失败 - AI开发平台ModelArts
er服务可以使单节点GPU卡间互联,在多卡GPU机器上,出现这种问题可能是nvidia-fabricmanger异常导致。 执行以下命令,查看NVIDIA和CUDA的版本,以及nvidia-fabricmanager的状态。 systemctl status nvidia-fabricmanager
-
使用AI示例 - AI开发平台ModelArts
使用AI示例 在AI Gallery中,您可以根据您的业务场景和诉求,查找相应的场景化AI示例,并支持一键运行示例。 AI Gallery中分享的示例支持免费订阅,但在使用过程中如果消耗了硬件资源进行部署,管理控制台将根据实际使用情况收取硬件资源的费用。 使用AI示例 登录“AI
-
使用自定义引擎创建AI应用 - AI开发平台ModelArts
r将统一修改为ma-user。 在本地机器上启动另一个终端,执行以下验证指令,得到符合预期的推理结果。 curl https://127.0.0.1:8080/${推理服务的请求路径} 推理部署示例 本节将详细说明以自定义引擎方式创建AI应用的步骤。 创建AI应用并查看AI应用详情
-
从AI Gallery订阅模型 - AI开发平台ModelArts
订阅模型的操作指导请参见买家指导(订阅模型)。 “我的AI应用”列表,单击“查找AI应用”,跳转至“AI Gallery”模型列表,选择模型进行订阅。 图1 我的订阅查找AI应用 图2 我的AI应用查找AI应用 将订阅模型部署为服务 针对我的订阅模型,支持将模型一键部署为服务。
-
VS Code连接后长时间未操作,连接自动断开 - AI开发平台ModelArts
小时),就可以避免防火墙将连接断开。 服务器端配置(Notebook当前已经配置,24h应该是长于防火墙的断连时间配置,该配置无需用户手工修改,写在这里仅是帮助理解ssh配置原理)配置文件路径:/home/ma-user/.ssh/etc/sshd_config 每24h向cli
-
ModelArts节点 - AI开发平台ModelArts
ModelArts节点 若您的资源中存在游离节点(即没有被纳管到资源池中的节点),您可在“专属资源池 > 弹性集群 >节点”下查看此类节点的相关信息,如图1。 图1 节点页签 针对不同类型的游离节点,可以通过对应的方式释放节点资源: 若是“按需计费”的节点,您可单击操作列的“删除”,即可实现对单个节点的资源释放。
-
创建训练作业镜像保存任务 - AI开发平台ModelArts
镜像名称,长度限制512个字符,支持小写字母、数字、中划线、下划线和点。 namespace 否 String 镜像所属组织,可以在SWR控制台“组织管理”创建和查看。 tag 否 String 镜像tag,长度限制64个字符, 支持大小写字母、数字、中划线、下划线和点。 description 否 String
-
PyCharm Toolkit提交训练作业 - AI开发平台ModelArts
PyCharm Toolkit提交训练作业 提交训练作业 停止训练作业 查看训练日志 父主题: 本地IDE(PyCharm)
-
准备算法 - AI开发平台ModelArts
准备算法 准备算法简介 使用订阅算法 使用预置框架(自定义脚本) 使用自定义镜像 查看算法详情 查找算法 删除算法
-
部署AI应用(在线服务) - AI开发平台ModelArts
部署AI应用(在线服务) 部署为在线服务 查看服务详情 测试服务 访问在线服务 集成在线服务 CloudShell 父主题: 部署AI应用(部署上线)
-
审计日志 - AI开发平台ModelArts
审计日志 支持云审计的关键操作 查看审计日志
-
授权管理 - AI开发平台ModelArts
授权管理 查看授权列表 配置授权 删除授权 创建ModelArts委托
-
启动DevServer实例 - AI开发平台ModelArts
charging_mode String 计费模式。 COMMON: 同时支持包周期和按需; POST_PAID:按需模式; PRE_PAID: 包周期。 cloud_server CloudServer object 云服务信息。 endpoints_response Array of Endpoints
-
云监控平台ModelArts监控 - AI开发平台ModelArts
云监控平台ModelArts监控 ModelArts支持的监控指标 设置告警规则 查看监控指标