内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 单音素GMM-HMM模型训练

    模型训练是输入特征到音素的状态的训练,即我们并不知道哪一帧输入特征对应哪个音素的哪一个状态。训练的目的就是找到帧对应状态的情况,并更新状态的gmm参数。把每一帧都归到某个状态上,本质上是进行聚类,是无监督训练。 单音素GMM-HMM模型训练通过Viterbi训练(嵌入式训练),把“S

    作者: 可爱又积极
    发表时间: 2021-09-16 05:10:36
    1462
    0
  • 《Spark机器学习进阶实战》——3.4.3 训练模型

    3.4.3 训练模型现在我们已经从数据集中提取了基本的特征并将数据转化成了libsvm文件格式,接下来进入模型训练阶段。为了比较不同模型的性能,将训练朴素贝叶斯和SVM,其他诸如逻辑回归、决策树等留给读者扩展实践。鉴于MLlib中RDD-based API将逐渐由Pipeline-based

    作者: 华章计算机
    发表时间: 2019-06-01 22:35:22
    6065
    0
  • 使用Python实现深度学习模型:迁移学习与预训练模型

    迁移学习的基本思想是利用在大规模数据集(如ImageNet)上训练好的模型,将其知识迁移到特定的目标任务中。迁移学习通常包括以下步骤: 加载预训练模型:使用已经在大规模数据集上训练好的模型。 微调模型:根据目标任务的数据集对模型进行微调。 实现步骤 步骤 1:导入所需库 首先,我们需要

    作者: Echo_Wish
    发表时间: 2024-05-21 12:46:22
    15
    0
  • kaldi语音识别 chain模型训练流程

    dim,模型上下文范围model_left_context, model_right_context等。 1.训练phone级别的语言模型 chain模型类似于基于最大互信息的区分性训练,也需要分子和分母有限状态机。在分母有限状态机方面,区别于传统最大互信息的区分性训练,chai

    作者: ASR-beginer
    发表时间: 2020-07-02 11:13:10
    8475
    1
  • 模型训练故障异构弹性恢复技术

    OpenAI GPT-4[2]的训练时长90~100天(2万多张GPU),算力利用率MFU仅32%到36%,而故障恢复涉及的高开销检查点则是低MFU的关键所在。因此,如何快速恢复模型续训提高集群训练的可靠性成为亟待解决的技术难题。 大模型训练故障恢复整体流程 大模型训练的故障恢复流程的主要步骤包括:

    作者: yd_257193061
    发表时间: 2025-01-24 14:58:27
    0
    0
  • AI模型训练技术前瞻

    本期直播分享预训练模型的主流方法,透过适用场景与应用汇总带你洞察业界趋势。

    主讲人:丁老师 华为AI算法工程师
    直播时间:2022/09/27 周二 19:00 - 20:30
  • 模型LLM之分布式训练

    个月翻倍的摩尔定律。为了能够满足机器学习模型的发展,只有通过分布式训练系统才可以匹配模型不断增长的算力需求。 图2 机器学习模型参数量增长和计算硬件的算力增长对比 分布式训练的总体目标就是提升总的训练速度,减少模型训练的总体时间。总训练速度可以用如下公式简略估计: 总训练速度∝ 单设备计算速度×

    作者: 码上开花_Lancer
    发表时间: 2024-05-06 15:02:03
    35
    0
  • AI——自然语言预训练模型(Bert模型)之Transformer详解

    n详解如何计算encoder self attention?muti-headed attention用位置编码表示句子的序列中词的顺序残差Decoder 部分最后的Linear和softmax层基础:Attention modelA High-Level Look模型如何运作?

    作者: jimmybhb
    发表时间: 2019-10-24 18:41:50
    5945
    0
  • 玩转Ascend310模型推理(一)模型训练与离线转换

    las/atlas-300-ai)。   本文通过使用tensorflow,以手写数字识别为例,通过tensorflow常用的3种建模方式分别演示和介绍模型训练模型保存、以及离线模型转换三个步骤,在下一篇(二)模型加载与运行推理中介绍转换后的模型如何部署与运行推理。  运行环境:

    作者: wangkai86
    发表时间: 2020-12-10 21:08:44
    10283
    2
  • 【MindSpore】【模型训练训练报错

    <module>    model.train(2,train_dataset)  File "D:\miniconda\envs\ms1.6\lib\site-packages\mindspore\train\model.py", line 788, in train    sink_size=sink_size) 

    作者: jinxinbesti
    1718
    5
  • 【ModelArts】华为ModelArts训练yolov3模型

    ModelArts是面向数据科学家和开发者的一站式AI平台,为机器学习与深度学习提供海量数据预处理及智能标注、大规模分布式训练、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流。 1.2yolo3模型 “You Only Look Once”

    作者: 张骥远-上海交通大学
    发表时间: 2023-11-15 18:27:16
    3
    0
  • 【mindspore】【模型训练如何使用CTCLoss进行训练

    label)形式的输入,而CTC的输入不仅包含网络的输出和数据标签,还有别的参数,这个时候我应该如何使用CTCLoss对模型进行训练

    作者: Lear
    972
    5
  • 「超全」麻省理工音频预训练模型

    音频和语音预训练模型 什么是预训练模型? 预训练模型是由其他人创建的用于解决类似问题的模型。我们可以使用在其他问题上训练模型作为起点,而不是从头开始构建模型来解决类似的问题。预训练模型在您的应用程序中可能不是 100% 准确。 Github地址:

    作者: 府学路18号车神
    发表时间: 2021-12-24 16:12:36
    506
    0
  • 使用Darknet框架训练目标检测模型

    生成train.txt文件 (JPEGImages文件中每个图片的路径)在终端下执行以下命令生成train.txtfind /media/JPEGImages/ -name "*.jpg"  >  train.txt1592129054577028918.png3.训练文件准备在

    作者: 老师好我叫高同学
    发表时间: 2020-06-14 18:18:27
    8333
    0
  • Lenet5模型训练和推理

    项目的目录分为两个部分:学习笔记readme文档,以及其中一些模型的简单实现代码放在train文件夹下。 ├── train # 相关代码目录 │ ├── net.py # LeNet5模型网络代码 │ ├── train.py # LeNet5模型训练代码 │ └── test

    作者: yd_255338811
    发表时间: 2024-05-06 22:23:53
    20
    0
  • 使用Srilm训练N-gram语言模型

    peechocean-train.txt -order 4 -write speechocean-train-4gram.count2. ngram模型训练执行命令训练1gram语言模型ngram-count -read speechocean-train-1gram.count

    作者: 作家小然
    发表时间: 2020-07-09 11:42:12
    13866
    0
  • 数学建模学习(68):机器学习训练模型的保存与模型使用

    模型。 Pickle 是一个通用的对象序列化模块,可用于序列化和反序列化对象。虽然它最常与保存和重新加载经过训练的机器学习模型相关联,但它实际上可以用于任何类型的对象。以下是如何使用 Pickle 将训练好的模型保存到文件并重新加载以获取预测。 模型保存 接着上篇内容:数

    作者: 川川菜鸟
    发表时间: 2022-05-18 16:01:31
    292
    0
  • AI安全之对抗样本入门》—3.6 使用预训练模型

    6 使用预训练模型在对深度学习模型生成对抗样本时,我们会经常使用预训练好的模型。主流的深度学习框架为了方便用户使用,都积极开放了经典模型以供下载。其中最多的还是机器视觉相关的图像分类与目标识别模型,比如:ResNet50VGG16InceptionV3下面我们将举例介绍如何使用预训

    作者: 华章计算机
    发表时间: 2019-06-17 18:23:13
    8307
    0