芯片
云服务器AI加速型实例
AI加速型 AI加速型 云服务器 (AI Accelerated Cloud Server, AIACS)是专门为AI业务提供加速服务的云主机。搭载昇腾系列芯片及软件栈。 AI推理加速型系列:搭载昇腾310芯片,为AI推理业务加速。 AI加速实例总览 AI推理加速型: AI推理加速增强I型Ai1s AI推理加速I型Ai1 更多详情请参见:AI加速实例总览
云服务器AI推理加速型实例Ai1
AI推理加速型Ai1 配套华为自研AI芯片Ascend 310,提供高性能AI推理算力、均衡的CPU内存配比、高性能网络能力。单实例最大可提供上百TOPS的计算性能,能够快速的基于复杂模型完成预测。 适用场景: 用于机器视觉、图像分类、 语音识别 、 自然语言处理 等AI推理场景 支持Caffe、Tensorflow等深度学习框架 配置: CPU/内存配比 1:4 vCPU数量范围 2~32 基频/睿频 3.0GHz/3.4GHz
GPU加速云服务器推荐配置
Ai1s(昇腾310) 深度学习推理,单芯片8G显存 vCPU:2/4/8/16/32核 内存:8/16/32/64/128GB 系统盘:40GB(默认) 显卡:1/2/4/8/16 Ascend 310 标准库支持:Atlas DDKPi2(T4) 深度学习推理 vCPU:8/16/32核 内存:32/64/128GB 系统盘:40GB(默认) 显卡:1/2/4 T4 标准库支持:CUDA/OpenCLG5(V100) CPU核多,适合对于CPU和GPU资源要求都高的推理业务 深度学习训练,视频AI推理,语音语义分析 vCPU:32核 内存:128 GB 系统盘:40GB(默认) 显卡:1 V100 标准库支持:CUDA/openGL
云服务器鲲鹏AI推理加速型实例
鲲鹏AI推理加速型 鲲鹏AI推理加速型实例kAi1s是以华为昇腾310(Ascend 310)芯片为加速核心的AI加速型弹性 云服务 器。基于Ascend 310芯片低功耗、高算力特性,实现了能效比的大幅提升,助力AI推理业务的快速普及。通过AI推理加速型实例kAi1s将Ascend 310芯片的计算加速能力在公有云上开放出来,方便用户快速简捷地使用Ascend 310芯片强大的处理能力。 鲲鹏AI推理加速型实例kAi1s基于Altas300加速卡设计,更多详细信息请参考:昇腾开发者社区 鲲鹏AI推理加速型云服务器可用于机器视觉、语音识别、自然语言处理通用技术,支撑智能零售、智能园区、机器人云大脑、平安城市等场景。 实例规格请参见:kAi1s型弹性云服务器的规格
华为HiLensModelBox开发框架
ModelBox ModelBox为端边云统一AI应用开发框架,目的是让模型以统一的格式和接口更高效地运行。开发者在华为云AI开发生产线ModelArts上完成模型的训练和优化之后,使用ModelBox框架完成应用的开发,支持部署到端、边、云场景的不同设备中运行,打通行业AI应用落地最后一公里。 优势 高性能并发调度引擎 ModelBox中将所有的任务都以功能单元的形式封装,由多个功能单元构成一个完整的应用。执行时,功能单元的计算将统一由线程池并发调度,确保计算单元被分配到对应的异构硬件中执行。同时,计算中,数据和执行单元绑定,保证数据处理的合理分配和高吞吐量。 预制的应用编排异构计算组件 丰富的组件覆盖了主流芯片、多数操作系统和主流的推理框架,做到了屏蔽芯片层、操作系统、推理架构这三个层次的平台差异 。 端边云 AI 协同单元 框架中提供的端边云AI协同单元让开发者快速写出格式一致的AI应用,并结合场景需求一键部署到端边云不同的设备上运行。 建议搭配使用:ModelArts、 对象存储服务 OBS