内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习入门》笔记 - 23

    在实际中训练误差常常偏小, 不是模型真实误差的好的估计值。这是因为如果考试题目是我们做过的作业题,那么我们更容易得高分。所以我们要有一些测试数据是不要参加模型训练的,需要搁置在一旁,直到模型完全建立好,再用来计算模型的测试误差。模型的预测效果较差,经常是由于两类问题导致的。那就是

    作者: 黄生
    30
    2
  • 自动学习模型训练时有异常图片出现

    我使用的是案例中的云宝数据集,在自动学习的模型训练中,有异常图片出现,有人知道是怎么回事吗?图片也找不到是哪个。异常图片显示如下:

    作者: yangyang_LI
    5796
    8
  • PyTorch 训练加速

    PyTorch Dataloader 加速   参考源码: https://github.com/NVIDIA/apex/blob/f5cd5ae937f168c763985f627bbf850648ea5f3f/examples/imagenet/main_amp

    作者: 风吹稻花香
    发表时间: 2021-06-04 15:55:09
    1258
    0
  • 深度学习的特点

    深度学习区别于传统的浅层学习深度学习的不同在于: (1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;(2)明确了特征学习的重要性。也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征的方法相比,

    作者: QGS
    667
    2
  • 深度强化学习

    深度强化学习是人工智能最有趣的分支之一。它是人工智能社区许多显着成就的基石,它在棋盘、视频游戏、自动驾驶、机器人硬件设计等领域击败了人类冠军。深度强化学习利用深度神经网络的学习能力,可以解决对于经典强化学习(RL)技术来说过于复杂的问题。深度强化学习比机器学习的其他分支要复杂得多

    作者: QGS
    465
    1
  • 深度学习应用开发》学习笔记-07

    还有一个是vggnet,他的问题是参数太大。深度学习的问题:1面向任务单一,依赖于大规模有标签数据,几乎是个黑箱模型。现在人工智能基本由深度学习代表了,但人工智能还有更多。。。然后就开始讲深度学习的开发框架。先整了了Theano,开始于2007年的加拿大的蒙特利尔大学。随着ten

    作者: 黄生
    827
    2
  • 深度学习之灾难遗忘

    每个 maxout 单元现在由 k 个权重向量来参数化,而不仅仅是一个,所以 maxout单元通常比整流线性单元需要更多的正则化。如果训练集很大并且每个单元的块数保持很低的话,它们可以在没有正则化的情况下工作得不错 (Cai et al., 2013)。maxout 单元还有一些

    作者: 小强鼓掌
    418
    0
  • 深度学习之参数共享

    这种方法由Lasserre et al. (2006) 提出,正则化一个模型(监督模式下训练的分类器)的参数,使其接近另一个无监督模式下训练的模型(捕捉观察到的输入数据的分布)的参数。这种构造架构使得许多分类模型中的参数能与之对应的无监督模型的参数匹配。参数范数惩罚是正则化参数使

    作者: 小强鼓掌
    825
    2
  • 深度学习之参数共享

    这种方法由Lasserre et al. (2006) 提出,正则化一个模型(监督模式下训练的分类器)的参数,使其接近另一个无监督模式下训练的模型(捕捉观察到的输入数据的分布)的参数。这种构造架构使得许多分类模型中的参数能与之对应的无监督模型的参数匹配。参数范数惩罚是正则化参数使

    作者: 小强鼓掌
    933
    1
  • 深度学习应用开发》学习笔记-12

    数据不是收集的,是自己生成的,好吧~一个简单的例子学习用的没关系%matplotlib inline这个是为了让在jupyter在浏览器里能够显示图像。生成y=2x+1的随机数据,数据加背景噪声限值0.4生成等差数列,100个x_data=np.linspace(-1,1,100)y_data=2*x_data+1

    作者: 黄生
    1024
    2
  • 大规模模型训练

    大规模模型训练涉及多GPU时的并行、通讯以及模型过大等问题。并行方式对于n个GPU数据并行:不同的GPU输入不同的数据,运行相同的完整的模型。模型并行:不同的GPU运行模型的不同部分,比如多层网络的不同层;如果模型能够放进单个GPU的显存中,可以使用数据并行加速。如果模型不能够放

    作者: dailydreamer
    发表时间: 2020-02-29 17:31:29
    6223
    0
  • 浅谈深度学习模型压缩

    teacher-student模型是迁移学习的一种,迁移学习也就是将一个模型的性能迁移到另一个模型上,对于教师网络往往是一个更加复杂的网络,具有非常好的性能和泛化能力,可以用这个网络来作为一个soft target来指导另外一个更加简单的学生网络来学习,使得更加简单、参数运算量更少的学

    作者: QGS
    37
    1
  • 深度学习概述

    后的输出。 训练集和测试集是不同分布的。尽可能使训练集和测试集的数据分布的属性一致。找到更多与测试集样本相更匹配的训练集数据。 2.3偏差与方差偏差=训练集预测值-真实值(算法的拟合程度,训练集误差)方差=同样大小的训练集的变动所导致的学习性能的变化(验证集误差-训练集误差) 高

    作者: 大鹏爱学习
    发表时间: 2022-10-17 10:07:38
    961
    0
  • 神经网络的训练过程、常见的训练算法、如何避免过拟合

    神经网络的训练深度学习中的核心问题之一。神经网络的训练过程是指通过输入训练数据,不断调整神经网络的参数,使其输出结果更加接近于实际值的过程。本文将介绍神经网络的训练过程、常见的训练算法以及如何避免过拟合等问题。 神经网络的训练过程 神经网络的训练过程通常包括以下几个步骤:

    作者: wljslmz
    发表时间: 2023-05-09 22:18:40
    34
    0
  • 深度学习应用开发》学习笔记-09

    0那一节开始看起,环境呢就不用自己搭建了,直接用modelarts里的开发环境Notebook里的jupyterLab,免费使用只是每小时会停止一下,对于学习来说没有关系。基本概念,tensorflow=tensor张量 + flow 流张量具体是啥意思之前不是很明白,只知道张力的概念,比如在亚

    作者: 黄生
    1745
    3
  • 深度学习应用开发》学习笔记汇总

    第一讲到这里就结束了,第二讲看了一点,其中关于人工智能机器学习概念,除了公式的定义之外,用类比的方法讲的非常的简单易懂 有监督学习,无监督学习,半监督学习,强化学习。强化学习说的非常厉害,适用于下棋和游戏这一类领域,基本逻辑是正确就奖励,错误就惩罚来做一个学习。 那么无监督学习的典型应用模式是什么呢?说出来

    作者: 黄生
    发表时间: 2022-07-10 14:11:01
    332
    0
  • 深度学习的特点

    深度学习区别于传统的浅层学习深度学习的不同在于: (1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;(2)明确了特征学习的重要性。也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征的方法相比,

    作者: QGS
    594
    2
  • GPU — 分布式训练

    文章目录 目录 分布式训练的挑战 算法挑战 工程挑战 NCCL MPI 分布式训练的挑战 算法挑战 数据并行或模型并行 同步或异步 批量较大,影响模型精度 热身,调整学习速率(线性上升,LARC/LARS)

    作者: 云物互联
    发表时间: 2022-07-14 16:00:23
    240
    0
  • 深度学习神经网络

        什么是神经网络    我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个文章中,我会说一些直观的基础知识。让我们从一个房价预测的例子开始说起。    假设你有一个数据集,它包含了六栋房子的信息。所以,你

    作者: 运气男孩
    656
    2
  • 深度学习应用开发》学习笔记-21

    说道:矩阵运算,是机器学习的基本手段,必须要掌握。 所以后面有线性代数、矩阵运算的基本介绍。 标量是一个特殊的向量(行向量、列向量),向量是一个特殊的矩阵;这样说来,标量,也是一个特殊的矩阵,一行一列的矩阵。 看代码吧 ```python import numpy as np ```

    作者: 黄生
    1038
    2