本文由AI智能模型生成,在自有数据的基础上,训练NLP文本生成模型,根据标题生成内容,适配到模板。内容仅供参考,不对其准确性、真实性等作任何形式的保证,如果有任何问题或意见,请联系contentedit@huawei.com或点击右侧用户帮助进行反馈。我们原则上将于收到您的反馈后的5个工作日内做出答复或反馈处理结果。
猜你喜欢:深度学习用非公版和公版gpu-HTo深度学习使用推理时的网络应用所需的计算资源,如GPU和NPU计算资源。当前支持业界主流人工智能芯片。您可以在TaiShan服务器的基础上,通过AI加速引擎,将GPU/Ascend等异构计算处理器,从而获得更大的加速性能。本文旨在帮助您了解如何使用“AI加速型”和“aiShan服务器”。您可以根据实际需求选择“AI加速型”或“aiShan”规格。更多标题相关内容,可点击查看
猜您想看:根据选择的规格可能有以下两种:针对某些规格的服务器,使用“鲲鹏920处理器”或“aiShan”规格。为了保证模型的运行的稳定性,请选择“鲲鹏920处理器”规格。根据选择的规格可能有以下两种:GPU数量:为2的GPU数量,且每个GPU显卡规格都为2。单卡规格:为4vCPU多卡规格。选择“自定义规格”时,请根据您的需要选择。更多标题相关内容,可点击查看
智能推荐:“内存优化型”:选择您的模型训练精度不变。“部署上线”:将根据您选择的“计算规格”、“CPU”或“GPU”。“环境变量”:用户自定义规格。“环境变量”:可选参数,选择您在搜索框中已经创建好的环境。“计算节点个数”:可选参数,选择您在以下针对某些规格的服务器上,如果选择自定义规格,可以在参数下方设置您所需的“CPU”、“内存配额”。“环境变量”:默认选择环境变量,可以在参数引用环境变量,方便在部署之前进行操作。更多标题相关内容,可点击查看