内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 华为云深度学习

    训练与部署开发工作少自研MoXing分布式框架,让您的分布式训练代码开发缩短近10倍训练速度快1000块GPU集群和0.8的线性加速比,原先一个月的模型训练时间,现在1小时搞定机会难得,小伙伴们还不抓紧来体验,数量有限,先到先得哦!!点击访问华为云深度学习官网

    作者: 斑馬斑馬
    331
    0
  • 深度学习入门》笔记 - 07

    些偏导数等于零,解方程得到b和w的估计值。但是这个方法只适合少数结构比较简单的模型(比如线性回归模型),不能求解深度学习这类复杂模型的参数。 所以下面介绍的是深度学习中常用的优化算法:`梯度下降法`。其中有三个不同的变体:随机梯度下降法、全数据梯度下降法、和批量随机梯度下降法。

    作者: 黄生
    156
    2
  • 深度学习入门》笔记 - 27

    下面用之前的广告数据,来建立线性回归模型,看看tensorflow2的一般建模过程。import numpy as np #1. 数据预处理:装载广告数据 def loadDataSet(): x=[];y=[] f=open('./Ad.csv')

    作者: 黄生
    22
    2
  • 深度学习之正切传播

    正则化项当然可以通过适当的超参数缩放,并且对于大多数神经网络,我们需要对许多输出求和 (此处为描述简单,f(x) 为唯一输出)。与切面距离算法一样,我们根据切向量推导先验,通常从变换(如平移、旋转和缩放图像)的效果获得形式知识。正切传播不仅用于监督学习(Simard et al.

    作者: 小强鼓掌
    664
    1
  • 深度学习之模型平均

    Bagging(bootstrap aggregating)是通过结合几个模型降低泛化误差的技术(Breiman, 1994)。主要想法是分别训练几个不同的模型,然后让所有模型表决测试样例的输出。这是机器学习中常规策略的一个例子,被称为模型平均(model averaging)。

    作者: 小强鼓掌
    735
    2
  • 深度学习之批量算法

    促使我们从小数目样本中获得梯度的统计估计的动机是训练集的冗余。在最坏的情况下,训练集中所有的 m 个样本都是彼此相同的拷贝。基于采样的梯度估计可以使用单个样本计算出正确的梯度,而比原来的做法少花了 m 倍时间。实践中,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对

    作者: 小强鼓掌
    317
    1
  • 深度学习图卷积

    作者: 我的老天鹅
    825
    6
  • 深度学习之虚拟对抗

    对抗训练有助于体现积极正则化与大型函数族结合的力量。纯粹的线性模型,如逻辑回归,由于它们被限制为线性而无法抵抗对抗样本。神经网络能够将函数从接近线性转化为局部近似恒定,从而可以灵活地捕获到训练数据中的线性趋势同时学习抵抗局部扰动。对抗样本也提供了一种实现半监督学习的方法。在与数据集中的标签不相关联的点

    作者: 小强鼓掌
    679
    1
  • 深度学习入门》笔记 - 20

    因变量的常见数据类型有三种:定量数据、二分类定性数据和多分类定性数据。输出层激活函数的选择主要取决于因变量的数据类型。MNIST数据集是机器学习文献中常用的数据。因变量(0~9)用独热码表示,比如数字8的独热码为(0 0 0 0 0 0 0 0 1 0)数字2的读热码为(0 0 1

    作者: 黄生
    25
    1
  • 深度学习之聚类问题

    关于聚类的一个问题是聚类问题本身是病态的。这是说没有单一的标准去度量聚类的数据对应真实世界有多好。我们可以度量聚类的性质,例如每个聚类的元素到该类中心点的平均欧几里得距离。这使我们可以判断能够多好地从聚类分配中重建训练数据。然而我们不知道聚类的性质多好地对应于真实世界的性质。此外

    作者: 小强鼓掌
    536
    1
  • 深度学习入门》笔记 - 08

    继续线性回归模型,这里先说`随机梯度下降法`。 先考虑一个简单的模型,没有截距,只有一个自变量: y=xw 当观测点为(x=0.5,y=0.8),w=3时,残差平方和是 ```python x,y=0.5,0.8 w=3 rss=(y-x*w)**2/2 print(rss) #0

    作者: 黄生
    148
    3
  • 深度学习入门》笔记 - 22

    神经网络模型建立好了之后,必然进行模型的评估来了解神经网络的表现。 神经网络的因变量通常有两种数据类型,定量数据和定性数据。不同因变量数据类型对应的模型误差的定义也不一样。当因变量为定性数据时,模型误差可以进一步分为两个类型: 假阳性率, FPR False Positive Rate

    作者: 黄生
    38
    3
  • 深度学习入门》笔记 - 25

    得到最终预测。在实际中,有较大限制,原因很简单, 集成模型需要大量的神经网络模型,一个神经网络模型已经很费资源了... 不够快,很多场景是实时有预测结果的,比如自动驾驶,等不了于是2014年有人发明了丢弃法 dropout 很有创意,实现原理也简单,被广泛应用。 就是随机使某些节点失活。

    作者: 黄生
    20
    1
  • 深度学习入门》笔记 - 24

    解决欠拟合问题的方法比较简单,增加模型复杂度就可以了。常见的方法是增加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差和测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段

    作者: 黄生
    38
    2
  • 深度学习之梯度下降

    对于牛顿法而言,鞍点显然是一个问题。梯度下降旨在朝“下坡”移动,而非明确寻求临界点。而牛顿法的目标是寻求梯度为零的点。如果没有适当的修改,牛顿法就会跳进一个鞍点。高维空间中鞍点的激增或许解释了在神经网络训练中为什么二阶方法无法成功取代梯度下降。Dauphin et al. (2014)

    作者: 小强鼓掌
    331
    2
  • 深度学习之参数绑定

    参数添加约束或惩罚时,一直是相对于固定的区域或点。例如,L2正则化(或权重衰减)对参数偏离零的固定值进行惩罚。然而,有时我们可能需要其他的方式来表达我们对模型参数适当值的先验知识。有时候,我们可能无法准确地知道应该使用什么样的参数,但我们根据领域和模型结构方面的知识得知模型参数之

    作者: 小强鼓掌
    835
    2
  • 深度学习笔记之理解

    我们今天知道的一些最早的学习算法,是旨在模拟生物学习的计算模型,即大脑怎样学习或为什么能学习的模型。其结果是深度学习以人工神经网络 (artificial neural network, ANN) 之名而淡去。彼时,深度学习模型被认为是受生物大脑(无论人类大脑或其他动物的大脑)所启发而设计出来的系统。尽管有

    作者: 小强鼓掌
    828
    2
  • 深度学习之快速 Dropout

    使用Dropout训练时的随机性不是这个方法成功的必要条件。它仅仅是近似所有子模型总和的一个方法。Wang and Manning (2013) 导出了近似这种边缘分布的解析解。他们的近似被称为快速 Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收

    作者: 小强鼓掌
    1199
    4
  • PyTorch深度学习技术生态

    runtimeONNX Runtime是一种跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组

    作者: 可爱又积极
    1298
    0
  • 深度学习入门》笔记 - 28

    线性回归模型相当于下面的简单神经网络模型,它没有隐藏层、输出层只有1个节点,激活函数是线性函数。使用 tf.keras.models.Sequential()构建模型使用 model.compile() 设置优化方法、损失函数、评价指标 (损失函数的值即 训练误差;评价指标的值即

    作者: 黄生
    34
    5
提示

您即将访问非华为云网站,请注意账号财产安全