内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习入门》笔记 - 01

    之前学了一个深度学习应用开发,学了一段时间,后来就没学了。 确实是"靡不有初,鲜克有终",现在不愿意再继续之前的学。我又找了一本书从头开始,这本书的名字是深度学习入门与TensorFlow实践>。 `数(scalar)`是一个数字。 简直是废话。 不过这才刚开始嘛。 多个数字有序

    作者: 黄生
    283
    1
  • 深度学习之设计矩阵

    有相同的大小。在监督学习中,样本包含一个标签或目标一组特征。例如,我们希望使用学习算法从照片中识别物体。我们需要明确哪些物体会出现在每张照片中。我们或许会用数字编码表示,如 0 表示人,1 表示车,2 表示猫,等等。通常当工作在包含观测特征的设计矩阵 X 的数据集时,我们也会提供一个标签向量

    作者: 小强鼓掌
    1663
    1
  • 深度学习入门》笔记 - 05

    接下来就是讲线性模型了。线性模型相对比较简单,但是他是学习比较复杂的深度学习模型的一个基础,而且线性模型本身也具有广泛的用途。 这里讲了线性模型中的线性回归模型logistic模型。线性回归模型用于处理`回归问题`。logistic模型用于处理`分类问题`。 线性回归模型可以写作如下的形式:

    作者: 黄生
    145
    3
  • 深度学习之浅层网络

    存在一些函数族能够在网络的深度大于某个值 d 时被高效地近似,而当深度被限制到小于或等于 d 时需要一个远远大于之前的模型。在很多情况下,浅层模型所需的隐藏单元的数量是 n 的指数级。这个结果最初被证明是在那些不与连续可微的神经网络类似的机器学习模型中出现,但现在已经扩展到了这些模型。第一个结果是关于逻辑门电路的

    作者: 小强鼓掌
    423
    0
  • 深度学习之监督学习算法

    源自这样一个视角,教员或者老师提供目标 y 给机器学习系统,指导其应该做什么。在无监督学习中,没有教员或者老师,算法必须学会在没有指导的情况下让数据有意义。尽管无监督学习监督学习并非完全没有交集的正式概念,它们确实有助于粗略分类我们研究机器学习算法时遇到的问题。传统地,人们将回归,分类

    作者: 小强鼓掌
    865
    2
  • 深度学习神经网络

    家庭人口仅仅取决于aiarz特征,换句话说,在神经网络中,你决定在这个结点中想要得到什么,然后用所有的四个输入来计算想要得到的。因此,我们说输入层中间层被紧密的连接起来了。值得注意的是神经网络给予了足够多的关于zy的数据,给予了足够的训练样本有关cy。神经网络非常擅长计算

    作者: 运气男孩
    656
    2
  • 深度学习入门》笔记 - 14

    png) 他与线性回归模型的不同点在于:Logistic模型对输入值加权,并使用sigmoid函数做了非线性处理。 为什么需要深度神经网络呢?下面用代码例子来说明。

    作者: 黄生
    61
    2
  • 深度学习训练过程

    无监督训练过程,这也是传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得到一个使得输出输入差别最小的三层神经网络的隐层,由于模型容量的限制以及稀疏性约束,使得得到的模型能够学习到数据本身的结构,从而

    作者: QGS
    539
    1
  • 深度学习之正切传播

    (此处为描述简单,f(x) 为唯一输出)。与切面距离算法一样,我们根据切向量推导先验,通常从变换(如平移、旋转缩放图像)的效果获得形式知识。正切传播不仅用于监督学习(Simard et al., 1992),还在强化学习(Thrun, 1995)中有所应用。正切传播与数据集增强密切相关。在这两种情况下,

    作者: 小强鼓掌
    345
    1
  • 深度学习之提前终止

    时,算法就会终止。此过程在算法中有更正式的说明。这种策略被称为提前终止(early stopping)。这可能是深度学习中最常用的正则化形式。它的流行主要是因为有效性简单性。

    作者: 小强鼓掌
    325
    0
  • 深度学习笔记之表示学习

    解决这个问题的途径之一是使用机器学习来发掘表示本身,而不仅仅把表示映射到输出。这种方法我们称之为表示学习(representation learning)。学习到的表示往往比手动设计的表示表现得更好。并且它们只需最少的人工干预,就能让AI系统迅速适应新的任务。表示学习算法只需几分钟就可以为

    作者: 小强鼓掌
    856
    1
  • 深度学习之函数估计

    可能具有过高的方差),k-折交叉验证算法可以用于估计学习算法 A 的泛化误差。数据集 D 包含的元素是抽象的样本 z(i) (对于第 i 个样本),在监督学习的情况代表(输入,目标)对 z(i) = (x(i), y(i)) ,或者无监督学习的情况下仅用于输入 z(i) = x(i)。该算法返回

    作者: 小强鼓掌
    836
    1
  • 深度学习之隐藏单元

    般来说,函数 g(z) 具有左导数右导数,左导数定义为紧邻在 z 左边的函数的斜率,右导数定义为紧邻在 z 右边的函数的斜率。只有当函数在 z 处的左导数右导数都有定义并且相等时,函数在 z 点处才是可微的。神经网络中用到的函数通常对左导数右导数都有定义。在g(z) = max{0

    作者: 小强鼓掌
    639
    2
  • 深度学习入门》笔记 - 09

    现在我们来尝试迭代多次,看看效果。 从w=0开始 ```python #w初始值给0 x,y=0.5,0.8 w=0;lr=0.5 #lr学习率=0.5 pred=x*w loss=((pred-y)**2)/2 grad=(pred-y)*x print('自变量:'+str(x))

    作者: 黄生
    448
    3
  • 深度学习之历史小计

    L’Hôpital, 1696)。微积分代数长期以来被用于求解优化问题的封闭形式,但梯度下降直到 19世纪才作为优化问题的一种迭代近似的求解方法被引入 (Cauchy, 1847)。从 20 世纪 40 年代开始,这些函数近似技术被用于导出诸如感知机的机器学习模型。然而,最早的模型都是基于线性模型。来自包括

    作者: 小强鼓掌
    414
    0
  • 深度学习之逻辑回归

    我们必须最大化对数似然来搜索最优解。我们可以通过梯度下降最小化负对数似然达到这一点。通过确定正确的输入输出变量上的有参条件概率分布族,相同的策略基本上可以用于任何监督学习问题。

    作者: 小强鼓掌
    732
    3
  • 深度学习入门》笔记 - 18

    网络的目的是建立输入层与输出层之间的关系,进而利用建立的关系得到预测值。通过增加隐藏层,神经网络可以找到输入层与输出层之间较复杂的关系。深度学习是拥有多个隐藏层的神经网络,在神经网络中,我们通过正向传播算法得到预测值,并通过反向传播算法得到参数梯度,然后利用梯度下降法更新参数,使

    作者: 黄生
    23
    1
  • 深度学习模型轻量化

    MNN等。主要包括编译优化、缓存优化、稀疏存储计算、NEON指令应用、算子优化等3. 硬件层加速。这个维度主要在AI硬件芯片层,目前有GPU、FPGA、ASIC等多种方案,各种TPU、NPU就是ASIC这种方案,通过专门为深度学习进行芯片定制,大大加速模型运行速度。

    作者: 可爱又积极
    1259
    4
  • 深度学习入门》笔记 - 16

    这个例子可以看到,神经网络可以先通过隐藏层学习数据的不同特征,再根据隐藏层得到的特征做出更好的预测。也就是说通过增加隐藏层,神经网络可以找到输入层因变量之间更复杂的关系;而不通过隐藏层,这种关系无法表达。同时可以通过增加隐藏层的数量每个隐藏层的节点数,来处理更加复杂的问题。拥

    作者: 黄生
    37
    4
  • 深度学习之Dropout启发

    ut描述为通过包括或排除单元形成模型集成的Bagging。然而,这种参数共享策略不一定要基于包括排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对

    作者: 小强鼓掌
    831
    3