-
ModelArts AI Gallery_市场_资产集市
EfficientDet Tensorflow 在线服务 GPU CPU、GPU YOLOv5 Pytorch 在线服务 GPU CPU、GPU BERT TensorFlow 在线服务 GPU CPU、GPU、Ascend 310 NEZHA TensorFlow 在线服务 GPU GPU
来自:专题 -
【云驻共创】知识蒸馏模型TinyBert解读分享
-
华为云获得自然语言处理领域顶级赛事NLPCC开放任务第一名
从不同角度评测模型的语义表达能力。同时,比赛要求模型的参数量低于bert-base模型的1/9,模型推理速度达到bert-base模型的8倍,这就要求模型运行快,体积小,效果好。 一般来说,可以通过量化、剪枝、蒸馏等方法来压缩大预训练语言模型来获得轻量级模型。华为云与诺亚方舟实验
来自:其他 -
知识蒸馏
-
知识蒸馏相关技术【模型蒸馏、数据蒸馏】以ERNIE-Tiny为例
-
TextBrewer:融合并改进了NLP和CV中的多种知识蒸馏技术、提供便捷快速的知识蒸馏框架、提升模型的推理速度,减少内存占用
-
TinyBERT: 面向预训练语言模型的知识蒸馏方法
-
RKD知识蒸馏实战:使用CoatNet蒸馏ResNet
-
深度学习实践篇[17]:模型压缩技术、模型蒸馏算法:Patient-KD、DistilBERT、DynaBERT、TinyBER
-
模型蒸馏简介
-
知识蒸馏相关技术【模型蒸馏、数据蒸馏】以ERNIE-Tiny为例
-
华为诺亚方舟开源哪吒、TinyBERT模型,可直接下载使用
-
一次训练、多端部署——华为提出宽度和深度可伸缩的动态预训练模型DynaBERT
-
知识蒸馏DEiT算法实战:使用RegNet蒸馏DEiT模型
-
[NAS论文][Transformer][预训练模型]精读NAS-BERT
-
知识蒸馏算法汇总(一)
-
MiniRBT中文小型预训练模型:结合了全词掩码(Whole Word Masking)技术和两段式知识蒸馏
-
模型蒸馏的方法
-
知识蒸馏NST算法实战:使用CoatNet蒸馏ResNet18(一)
-
知识蒸馏NST算法实战:使用CoatNet蒸馏ResNet18(二)
-
华为云获得自然语言处理领域顶级赛事NLPCC开放任务第一名