
Algorithm Powers Innovation
算法驱动创新
研究方向
研究方向
- 软硬件结合的高性能算子
- 大模型训推加速技术
- 新型大模型设计与训练
软硬件结合的高性能算子
算子是计算任务中最基础的执行单元,直接决定了整个系统或模型的效率和性能,本方向通过深入分析昇腾硬件特性,设计并优化适配昇腾硬件平台的高性能算子,使用并行计算优化、访存优化、多算子融合,算子自动化等技术实现硬件资源的充分利用,提升大模型整体运行性能。
高性能算子优化
多算子融合
大模型训推加速技术
大模型训练和推理加速技术是解决计算资源瓶颈、降低计算成本、缩短训练时间、降低部署门槛的关键,我们希望通过研究大模型分布式训推策略,改进训练和推理框架,利用先进的并行计算,模型压缩与量化等技术,降低训练和推理成本,提升吞吐量。
大模型训推框架优化
大模型分布式并行算法
模型压缩与量化
新型大模型设计与训练
大模型结构设计是人工智能技术的核心,决定了模型的性能、效率和应用潜力。通过不断创新和优化结构设计,可以推动大模型在更广泛的领域中发挥作用。本方向探索如MLA、NSA、MOBA等新型模型架构及其预训练、后训练、压缩等技术,提升大模型在复杂场景下的的准确性、泛化能力和效率。
新型大模型架构设计
大模型后训练技术
- AI智能体
- 面向AI的新型算力基础设施的调度优化
- 云存储算法
AI智能体
通过使用大模型和AI算法来模拟人类智能和行为的软件程序。它们需要理解自然语言、感知环境信息、自主决策规划、执行指令、与人类或环境进行自然而有效的交互,并不断反馈学习改善性能。因此,AI智能体通常基于GPT/Llama/盘古等大语言模型,通过分析、记忆、规划、动作等模块构建更智能的系统。所设计的算法包括但不限于自然语言处理、多模态学习、强化学习、深度学习等。
算子自动化开发
自动工作流生成
面向AI的新型算力基础设施的调度优化
为了打造ChatGPT/AIGC时代的云竞争力,需要最大化利用新型AI算力资源,提高AI算法的执行效率与性能。随着大模型以及AI应用的普及,用户对算力的消耗与需求逐渐从传统的CPU为主过渡到GPU/NPU等异构算力为主。针对新型AI算力基础设施,需要综合设计分布式并行计算、异构资源分配调度、多任务调度、负载均衡调度等算法。
多业务混部
异构算力编排调度
云存储算法
云存储服务是华为云的三大基础服务之一,其体量大,存有EB级别的数据,并且还在快速增长中。存储服务会用到存储、网络、计算等多种资源,并且全球化部署,复杂度高。同时数据存储对可靠性有非常高的要求。其对性能和高可靠的极致追求给算法研究留下很大空间。我们希望通过数据驱动的算法优化,在为客户提供高可靠性的存储服务的同时,实现资源的高效利用,降本增效。
数据资源优化
存储基础算法