内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 使用Srilm训练N-gram语言模型

    peechocean-train.txt -order 4 -write speechocean-train-4gram.count2. ngram模型训练执行命令训练1gram语言模型ngram-count -read speechocean-train-1gram.count

    作者: 作家小然
    发表时间: 2020-07-09 11:42:12
    13866
    0
  • 【MindSpore】【模型训练训练报错

    <module>    model.train(2,train_dataset)  File "D:\miniconda\envs\ms1.6\lib\site-packages\mindspore\train\model.py", line 788, in train    sink_size=sink_size) 

    作者: jinxinbesti
    1717
    5
  • 使用Python实现深度学习模型:迁移学习与预训练模型

    迁移学习的基本思想是利用在大规模数据集(如ImageNet)上训练好的模型,将其知识迁移到特定的目标任务中。迁移学习通常包括以下步骤: 加载预训练模型:使用已经在大规模数据集上训练好的模型。 微调模型:根据目标任务的数据集对模型进行微调。 实现步骤 步骤 1:导入所需库 首先,我们需要

    作者: Echo_Wish
    发表时间: 2024-05-21 12:46:22
    15
    0
  • AI模型训练技术前瞻

    本期直播分享预训练模型的主流方法,透过适用场景与应用汇总带你洞察业界趋势。

    主讲人:丁老师 华为AI算法工程师
    直播时间:2022/09/27 周二 19:00 - 20:30
  • 「超全」麻省理工音频预训练模型

    音频和语音预训练模型 什么是预训练模型? 预训练模型是由其他人创建的用于解决类似问题的模型。我们可以使用在其他问题上训练模型作为起点,而不是从头开始构建模型来解决类似的问题。预训练模型在您的应用程序中可能不是 100% 准确。 Github地址:

    作者: 府学路18号车神
    发表时间: 2021-12-24 16:12:36
    506
    0
  • 玩转Ascend310模型推理(一)模型训练与离线转换

    2}) 执行训练: &nbsp; python3 train.py keras模型 keras模型为高度抽象模型,不需要像RAW模型那样定义底层变量,在构图中手动计算参数变量与tensor的关系,一切通过抽象好的模型叠加即可,参数在keras内部自动定义和计算,基本由构图和训练两部即可完成。

    作者: wangkai86
    发表时间: 2020-12-10 13:08:44
    3811
    2
  • AI——自然语言预训练模型(Bert模型)之Transformer详解

    这个机制从两个方面增强了注意力层的表现:增加了模型将注意力集中在多个不同位置的能力muti-headed attention可以使我们拥有多组的 Query/Key/Value 权重矩阵(论文中是8组)。每一组都随机初始化经过训练之后,能够将输入的词向量转化为具有不同代表意义的子空间(different

    作者: jimmybhb
    发表时间: 2019-10-24 18:41:50
    5945
    0
  • 模型LLM之分布式训练

    个月翻倍的摩尔定律。为了能够满足机器学习模型的发展,只有通过分布式训练系统才可以匹配模型不断增长的算力需求。 图2 机器学习模型参数量增长和计算硬件的算力增长对比 分布式训练的总体目标就是提升总的训练速度,减少模型训练的总体时间。总训练速度可以用如下公式简略估计: 总训练速度&prop; 单设备计算速度&times;

    作者: 码上开花_Lancer
    发表时间: 2024-05-06 15:02:03
    35
    0
  • Lenet5模型训练和推理

    项目的目录分为两个部分:学习笔记readme文档,以及其中一些模型的简单实现代码放在train文件夹下。 ├── train # 相关代码目录 │ ├── net.py # LeNet5模型网络代码 │ ├── train.py # LeNet5模型训练代码 │ └── test

    作者: yd_255338811
    发表时间: 2024-05-06 22:23:53
    20
    0
  • 「超全」麻省理工OpenCV预训练模型全集

    Pre-Trained Model 包括了在Tensorflow,Pytorch等多个平台上的预处理模型 什么是预训练模型? 预训练模型是由其他人创建的用于解决类似问题的模型。我们可以使用在其他问题上训练模型作为起点,而不是从头开始构建模型来解决类似的问题。预训练模型在您的应用程序中可能不是

    作者: 府学路18号车神
    发表时间: 2021-12-24 16:46:33
    909
    0
  • AI安全之对抗样本入门》—3.6 使用预训练模型

    带有预训练权重的Keras模型,这些模型可以用来进行预测、特征提取。模型的预训练权重将下载到~/.keras/models/并在载入模型时自动载入。 图3-9 小猪示例图片加载需要的Python库,并对图像进行预处理。使用基于Imagenet数据集训练的ResNet50模型,图片大小转换成(224

    作者: 华章计算机
    发表时间: 2019-06-17 18:23:13
    8307
    0
  • 【中奖公示&amp;视频回顾】GDE直播公开课·第八期:让数据开发更简单,创造更大价值 ——从0到1了解DataFactory

    oundry是GDE AI模型训练平台。8Procode开发怎么理解?代码开发,如Python、Java、Unix脚本等。9介绍点DataFactory实战案例。请关注后续的直播公开课,或关注社区推送内容。10AppCube与GDE是什么关系?不同的产品,有不同的适用场景。可以在

    作者: ADC小助手
    11230
    244
  • 数学建模学习(68):机器学习训练模型的保存与模型使用

    机器学习模型通常需要数小时或数天才能运行,尤其是在具有许多特征的大型数据集上。如果你的机器坏了,你会丢失你的模型,你需要从头开始重新训练它。 Pickle 是一个有用的 Python 工具,可让你保存模型,最大限度地减少冗长的重新训练,并允许你共享、提交和重新加载预先训练的机器学习模型。

    作者: 川川菜鸟
    发表时间: 2022-05-18 16:01:31
    292
    0
  • 【开发者空间实践】云主机安装Docker并制作自定义镜像在ModelArts平台模型训练

    三、实验流程 说明: 1、在云主机上安装docker; 2、制作模型训练镜像并上传到SWR; 3、在云主机创建训练脚本,使用浏览器打开OBS服务,上传训练脚本; 4、在ModelArts平台创建训练作业完成模型训练。 实验资源 本次实验花费总计为1元,资源采取按需计费,体验结束

    作者: 开发者空间小蜜蜂
    发表时间: 2024-10-14 09:41:08
    20
    0
  • 【Atlas300】【模型训练】在服务器上做模型训练的优势

    正常流程是否为,在X86平台搭配GPU训练模型,后将训练好的模型转为Atlas300做模型推理。可否在服务器使用Atlas300完成caffe、caffe2等模型训练,Atlas300可有在模型训练上的优势。

    作者: bmelo1994
    1054
    5
  • 模型训练报错

    使用Model Arts进行yolov4模型训练时出现文件读取错误检查发现这个文件是存在的,并且在obs对应路径'yolov4-r1.5/data/COCOmini/annotations/instances_train2017.json'下,请问为什么会报错呢?

    作者: yd_272675511
    26
    2
  • 模型训练外包的风险

    经过认真训练的。 作者给出了后门策略的多种结构,这些结构基于标准加密假设,能够在很大程度上确保不被检测到。文中提到的后门策略是通用且灵活的:其中一个可以在不访问训练数据集的情况下给任何给定的分类器 h 植入后门;其他的则运行诚实的训练算法,但附带精心设计的随机性(作为训练算法的初

    作者: 黄生
    241
    0
  • AI开发平台ModelArts】ModelArts模型训练相关问题

    问题现象:如何解决欠拟合问题? 解决办法:模型过于简单、特性不足、正则参数化等原因会引起欠拟合,可以通过如下集中方式解决1.模型复杂化,使用更为复杂的算法或模型替代原先模型,或是增加原先使用模型的复杂度,例如回归模型添加更多高次项,增加决策树深度等2.可以考虑添加特征,从数据中挖

    作者: DTSE知识库
    7
    0
  • 领域特定语言模型训练与应用

    深度学习时代:随着深度学习的发展,领域特定模型开始使用神经网络进行训练,能够更好地捕捉文本中的复杂模式和关系。例如,基于LSTM的模型在医学文本分类任务中取得了显著的进展。 预训练模型的引入:近年来,BERT、GPT等预训练模型的引入为领域特定语言模型的发展带来了新的契机。通过在通用预训练模型的基础上,使

    作者: Y-StarryDreamer
    发表时间: 2024-08-26 15:55:51
    38
    0
  • 训练模型方式

    loss_function(out, label)loss.backward()optimizer.step()只有model.train(epoch, train_set)无法自由调整网络训练

    作者: yd_292340700
    219
    3