内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习-通用模型调试技巧

    集上的错误率不再下降,停止训练;3、计算贝叶斯错误率与训练错误率之差,该差值称为模型偏差,计算训练错误率与验证错误率之差,该差值称为模型方差,将训练时记录的训练集错误率和验证集错误率绘制成曲线,分析下一步应该调小模型的偏差还是方差,假设偏差是10%、方差是3%,那么应该优先降低偏

    作者: 山海之光
    发表时间: 2019-08-08 21:26:02
    11278
    1
  • 算法训练 矩阵乘法

    问题描述 输入两个矩阵,分别是m*s,s*n大小。输出两个矩阵相乘的结果。 输入格式 第一行,空格隔开的三个正整数m,s,n(均不超过200)。   接下来m行,每行s个空格隔开的整数,表示矩阵A(i,j)。   接下来s行,每行n

    作者: 陈言必行
    发表时间: 2021-08-13 16:55:35
    1914
    0
  • 算法训练 K好数

    问题描述 如果一个自然数N的K进制表示中任意的相邻的两位都不是相邻的数字,那么我们就说这个数是K好数。求L位K进制数中K好数的数目。例如K =4,L = 2的时候,所有K好数为11、13、20、22、30、31、33共7个。由于这个

    作者: 陈言必行
    发表时间: 2021-08-13 16:53:36
    2050
    0
  • 算法训练 字串统计

      问题描述 给定一个长度为n的字符串S,还有一个数字L,统计长度大于等于L的出现次数最多的子串(不同的出现可以相交),如果有多个,输出最长的,如果仍然有多个,输出第一次出现最早的。 输入格式 第一行一个数字L。   第二行是字符串S。

    作者: 陈言必行
    发表时间: 2021-08-13 15:54:28
    1668
    0
  • 【Verilog HDL 训练】第 06 天(边沿检测)

    1. 复习verilog语法 【选做题】 - reg和wire的区别 寄存器数据类型 Verilog中规定,凡是在程序块中被赋值的变量,都必须是寄存器类型的。(程序块:例如always块) 这里未免还是会让人产生疑惑?寄存器数据类型的变量最后一定会被综合成寄存器吗?

    作者: 李锐博恩
    发表时间: 2021-07-14 19:49:20
    1078
    0
  • 《MXNet深度学习实战》—3.3 Module

    入参数中,train_data参数是训练数据,num_epoch参数是训练时整个训练集的迭代次数(也称epoch数量)。需要注意的是,将所有train_data过一遍模型才算完成一个epoch,因此这里设定为将这个训练集数据过5次模型才完成训练。logger = logging.getLogger()logger

    作者: 华章计算机
    发表时间: 2019-06-16 17:05:55
    3439
    0
  • 深度学习在环保

    Anthony 如是说:" 这一领域的开发获得了高速发展。深度学习模型在规模上不断扩大,越来越先进, 目前呈指数级增长。令大多数人意想不到的是:这意味着能源消耗正在随之增加。" 一次深度学习训练 =126 个丹麦家庭的年度能源消耗 深度学习训练是数学模型识别大型数据集中的模式的过程。这是一个

    作者: 初学者7000
    839
    2
  • 如何在华为AI平台ModelArts上训练一个物体检测模型【玩转华为

    华为AI平台ModelArts提供了一个强大的平台,让开发者可以方便地训练、部署和推理物体检测模型。通过ModelArts,我们可以利用大规模的数据集和先进的深度学习算法,构建高性能的物体检测模型。 本博客文章将指导读者如何在华为AI平台ModelArts上训练一个物体检测模

    作者: 皮牙子抓饭
    发表时间: 2023-09-22 14:46:07
    130
    0
  • 深度学习之学习率

    为 ϵ0,ϵτ,τ。通常 τ 被设为需要反复遍历训练集几百次的迭代次数。通常 ϵτ 应设为大约 ϵ0 的 1%。主要问题是如何设置 ϵ0。若 ϵ0 太大,学习曲线将会剧烈振荡,代价函数值通常会明显增加。温和的振荡是良好的,容易在训练随机代价函数(例如使用 Dropout 的代价函

    作者: 小强鼓掌
    456
    2
  • 【Verilog HDL 训练】第 04 天(竞争、冒险、译码等)

    1. 什么是竞争和冒险? 记得我刚学FPGA那会,恶补基础知识,其中之一就是竞争与冒险,我参考了《FPGA之道》,记录了几篇博客: 【 FPGA 】组合逻辑中的竞争与险象问题(一) 第一篇博客中写道了单输入组合逻辑,如下: 这个例子最简单,却最能说明什么是竞争,以及由竞争导致的险象,也即冒险。

    作者: 李锐博恩
    发表时间: 2021-07-14 18:42:18
    1230
    0
  • 如何在华为AI平台ModelArts上训练一个物体检测模型【玩转华为

    恭喜!您现在已经学会了如何在华为AI平台ModelArts上训练一个物体检测模型。通过在ModelArts上进行训练和部署,您可以更方便地构建和使用物体检测模型,以满足不同的应用需求。祝您在使用ModelArts进行物体检测任务中取得成功! 当使用华为AI平台ModelArts训练物体检测模型时,可以使用以下示例代码作为参考:

    作者: 皮牙子抓饭
    发表时间: 2024-01-30 09:53:26
    1450
    0
  • 完整地模型训练套路

    lr=learning_rate) # 随机梯度下降 # 设置训练网络的一些参数 # 记录训练的次数 total_train_step = 0 # 记录测试的次数 total_test_step = 0 # 训练的轮数 epoch = 10 # 使用tensorboard记录

    作者: yd_237060271
    发表时间: 2022-10-11 12:31:00
    124
    0
  • 【AI开发平台ModelArts】ModelArts模型训练相关问题

    问题现象:如何解决欠拟合问题? 解决办法:模型过于简单、特性不足、正则参数化等原因会引起欠拟合,可以通过如下集中方式解决1.模型复杂化,使用更为复杂的算法或模型替代原先模型,或是增加原先使用模型的复杂度,例如回归模型添加更多高次项,增加决策树深度等2.可以考虑添加特征,从数据中挖

    作者: DTSE知识库
    8
    0
  • 机器学习3-训练与损失

    如果模型的预测完成准确,则损失为零,否则损失会较大。   训练模型 训练模型的目标是从所有样本中找到一组平均损失“较少”的权值和偏差。 点击并拖拽以移动​ 红色箭头表示损失;蓝线表示预测。左侧曲线图中的红色箭头比右侧曲线图中的对应红色箭头长得多;

    作者: 一颗小树x
    发表时间: 2021-06-18 13:21:56
    1449
    0
  • 分享关于深度学习Python库

    深度学习1. TensorFlow星标:149000,提交数:97741,贡献者:754TensorFlow是针对机器学习的端对端开源平台。它具备综合灵活的工具、库和社区资源,可以帮助研究者推动先进的机器学习技术的发展以及开发者更轻松地开发和发布由机器学习支持的应用。2. Ker

    作者: 初学者7000
    633
    1
  • 深度学习之Bagging学习

    回想一下Bagging学习,我们定义 k 个不同的模型,从训练集有替换采样构造k 个不同的数据集,然后在训练集 i 上训练模型 i。Dropout的目标是在指数级数量的神经网络上近似这个过程。具体来说,在训练中使用Dropout时,我们会使用基于小批量的学习算法和较小的步长,如梯

    作者: 小强鼓掌
    1254
    2
  • 如何训练自己的语言模型:从数据收集到模型训练

    参数以最小化损失函数。 B. 训练过程 批量训练:将训练数据分成小批量,逐批输入模型进行训练。 评估与调整:在训练过程中,定期评估模型在验证集上的性能,并根据需要调整模型参数和结构。 下面是一个训练模型的示例代码: # 示例训练数据 X_train = padded_sequences

    作者: Y-StarryDreamer
    发表时间: 2024-08-06 17:16:05
    69
    0
  • 昇腾CANN训练营第一期应用营

    -drivers?tag=community 晟腾社区硬件平台下载相应的驱动 https://ascend.huawei.com/#/software/cann/community 软件平台下载nnrt和toolkit https://ascend.huawei

    作者: 加油O幸福
    发表时间: 2021-04-01 03:13:41
    3442
    2
  • AI模型的训练过程步骤

    使用云服务:借助云服务提供商(如阿里、腾讯等)提供的GPU和TPU资源,可以降低硬件成本和维护负担。 分布式训练:通过将模型拆分为多个部分,并在多个设备上同时训练,可以显著缩短训练时间。 迁移学习:利用预训练好的模型进行微调,可以减少训练时间和成本。预训练模型在大量数据上进行了训练,因此可以在特定任务上更快地收敛。

    作者: i-WIFI
    发表时间: 2024-09-18 15:45:12
    52
    0
  • 深度学习算法中的协同训练(Co-training)

    中一个视角作为训练集,另一个视角作为未标记数据。接着,初始化两个分类器(在这个例子中使用SVM),然后通过迭代训练的方式进行协同训练。在每一轮训练中,使用一个分类器对另一个视角上的未标记数据进行预测,并选择置信度高的样本进行标记。然后,将标记好的数据样本加入到训练集中,并更新另一

    作者: 皮牙子抓饭
    发表时间: 2023-09-24 15:09:42
    63
    1