检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
##安装obsutil,完成AKSK配置。建议在基础镜像里做好。 #mkdir -p /opt && cd /opt #wget https://obs-community.obs.cn-north-1.myhuaweicloud.com/obsutil/current/obsutil_linux_amd64
发的AppCode进行身份认证,调用者将AppCode放到请求头中进行身份认证,确保只有授权的调用者能够调用API接口。 AppCode的获取方法:单击AI Gallery页面右上角“我的Gallery”,在左侧菜单栏选择“鉴权管理”。在“鉴权管理”中单击“创建AppCode”,
支持对Workflow中单个节点、多个节点以及工作流的相关事件进行订阅。订阅列表中,一行代表一个节点或者整条工作流的订阅。如需对多个节点的状态变化获取消息,则需增加多行订阅消息。 配置完成后单击右上方“保存配置”并确认保存。 单击右上方“启动”并在弹框中单击“确认”后开始运行工作流。 工
安装VS Code软件 使用VS Code连接开发环境时,首先需要安装VS Code软件。 VS Code下载方式: 下载地址: https://code.visualstudio.com/updates/v1_85 图1 VS Code的下载位置 VS Code版本要求: 建议用户使用VS
议先停止当前Notebook实例,然后重新启动。 报错504 如果报此错误时,请提工单或拨打热线电话协助解决。提工单和热线电话请参见:https://www.huaweicloud.com/service/contact.html。 报错500 Notebook JupyterL
对于按需计费模式的资源,如果不再使用这些资源且需停止计费,请删除相应资源。 通过账单查找云服务资源并停止计费 为了确保所有计费资源都能够被找到并删除,您可以在费用账单中获取计费资源的ID,通过这些ID信息找到具体的资源,然后将其逐个删除。具体操作如下: 对于Notebook,可使用资源ID查找资源。具体方法如下:
准确。 ModelArts的AI Gallery中提供了常见的精度较高的算法和相应的训练数据集,用户可以在AI Gallery的资产集市中获取。 后续操作:清除相应资源 在完成预测之后,建议关闭服务,以免产生不必要的计费。 停止运行服务 预测完成后,单击页面右上角的“停止”,即可停止该服务。
准确。 ModelArts的AI Gallery中提供了常见的精度较高的算法和相应的训练数据集,用户可以在AI Gallery的资产集市中获取。 后续操作:清除相应资源 在完成预测之后,建议关闭服务,以免产生不必要的计费。 停止运行服务 预测完成后,单击页面右上角的“停止”,即可停止该服务。
python -c "import torch;print(torch.__version__)" 通过pytorch官网可查兼容版本:https://pytorch.org/get-started/previous-versions/ 如果环境中装了多版本的cuda,可以排查LD
pt4_data.json)按照下面的数据存放目录要求放置。 指令微调样例数据集alpaca_gpt4_data.json的下载链接:https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/blob/main/alpacaGPT4/alpaca_gpt4_data
如果是触发了欧拉操作系统的限制,有如下建议措施。 分目录处理,减少单个目录文件量。 减慢创建文件的速度。 关闭ext4文件系统的dir_index属性,具体可参考:https://access.redhat.com/solutions/29894,(可能会影响文件检索性能)。 建议与总结 在创建训练作业前,推
将权重文件存储到OBS桶中,且权重文件必须满足对应模型的文件格式要求。 权重文件指的是模型的参数集合。OBS桶必须和MaaS服务在同一个Region下。 关于如何获取权重文件,请参见Hugging Face官网。 关于权重文件的格式要求,请参见约束限制。 关于如何将权重文件存储到OBS桶,请参见上传概述。
能评估等,让AI项目管理者能很方便的查看流水线执行过程的质量与效率。 流程优化:围绕流水线每一次迭代,用户可以自定义输出相关的核心指标,并获取相应的问题数据与原因等,从而基于这些指标,快速决定下一轮迭代的执行优化。 Workflow介绍 Workflow(也称工作流,下文中均可使
me/ma-user/.ssh/etc/sshd_config 每24h向client端主动发个包,3次发包均无响应会断开连接 参考:https://unix.stackexchange.com/questions/3026/what-do-options-serveralive
在线服务和模型负载运行状态进行日常监控。您可以通过管理控制台,直观地查看ModelArts在线服务和模型负载的各项监控指标。由于监控数据的获取与传输会花费一定时间,因此,云监控显示的是当前时间5~10分钟前的状态。如果您的在线服务刚创建完成,请等待5~10分钟后查看监控数据。 前提条件:
3.wav 表格 支持从OBS导入csv文件,需要选择文件所在目录,其中csv文件的列数需要跟数据集schema一致。支持自动获取csv文件的schema。 ├─dataset-import-example │ table_import_1.csv │
在线服务预测报错ModelArts.4503 问题现象 在线服务部署完成且服务已经处于“运行中”的状态后,向运行的服务发起推理请求,报错ModelArts.4503。 原因分析及处理方法 服务预测报错ModelArts.4503有多种场景,常见场景如下: 通信出错 请求报错:{"
自定义引擎创建模型规范 使用自定义引擎创建模型,用户可以通过选择自己存储在SWR服务中的镜像作为模型的引擎,指定预先存储于OBS服务中的文件目录路径作为模型包来创建模型,轻松地应对ModelArts平台预置引擎无法满足个性化诉求的场景。 ModelArts将自定义引擎类型的模型部