已找到以下 10000 条记录
  • 深度学习入门》笔记 - 22

    现。 神经网络的因变量通常有两种数据类型,定量数据定性数据。不同因变量数据类型对应的模型误差的定义也不一样。当因变量为定性数据时,模型误差可以进一步分为两个类型: 假阳性率, FPR False Positive Rate 假阴性率。 FNR False Negative Rate

    作者: 黄生
    38
    3
  • 深度学习入门》笔记 - 24

    加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段,在实践中,通常先构建一个复杂的神经网络模型。这个模型通常会拟合,然

    作者: 黄生
    38
    2
  • 深度学习入门》笔记 - 27

    of y:' + str(y.shape))shape of x:(200, 3) shape of y:(200, 1)#把数据分为:训练测试 np.random.seed(1) train_x,train_y=x[:100],y[:100] test_x,test_y=x[-100:]

    作者: 黄生
    22
    2
  • 深度学习之快速 Dropout

    Boosting训练整个集成以最大化训练集上的似然。从传统Dropout类似于Bagging的角度来看,这种方式类似于Boosting。如预期一样,单一模型训练整个网络相比,Dropout Boosting几乎没有正则化效果。这表明,使用Bagging解释Dropout比使用稳健性噪声解

    作者: 小强鼓掌
    541
    1
  • 深度学习之快速 Dropout

    Boosting训练整个集成以最大化训练集上的似然。从传统Dropout类似于Bagging的角度来看,这种方式类似于Boosting。如预期一样,单一模型训练整个网络相比,Dropout Boosting几乎没有正则化效果。这表明,使用Bagging解释Dropout比使用稳健性噪声解

    作者: 小强鼓掌
    1198
    4
  • 深度学习入门》笔记 - 28

    of x:' + str(x.shape)) print('shape of y:' + str(y.shape)) #把数据分为:训练测试 np.random.seed(1) train_x,train_y=x[:100],y[:100] test_x,test_y=x[-100:]

    作者: 黄生
    33
    5
  • 动手学深度学习:优化与深度学习的关系

    Smola)人工智能机器学习深度学习领域重磅教程图书亚马逊科学家作品动手学深度学习的全新模式,原理与实战紧密结合目前市面上有关深度学习介绍的书籍大多可分两类,一类侧重方法介绍,另一类侧重实践深度学习工具的介绍。本书同时覆盖方法实践。本书不仅从数学的角度阐述深度学习的技术与应用,还包

    作者: 且听风吟
    发表时间: 2019-09-04 09:40:07
    6962
    0
  • 从虚拟化到容器化部署脚本整改的采坑记

    也就直接执行命令启动即可。因此我们的整改也是简单的去除了su – runtime_user,但出现了如下错误:1592311427703007727.png从错误中提示文件或目录不存在,可是看过去和我们的修改并没有直接关系,求助广大网友也可知调用的脚本本身并没有关系,那究竟是什

    作者: Sephiroth
    发表时间: 2020-06-16 20:44:52
    7640
    0
  • 深度学习之切面距离

    的样本同一流形上的样本具有相同的类别。由于分类器应该对局部因素(对应于流形上的移动)的变化保持不变,一种合理的度量是将点 x1 x2 各自所在流形 M1 M2 的距离作为点 x1 x2 之间的最近邻距离。然而这可能在计算上是困难的(它需要解决一个寻找 M1 M2

    作者: 小强鼓掌
    424
    1
  • 深度学习入门》笔记 - 03

    Notebook`是WEB应用,可方便的创建、运行分享python代码。conda install jupyter notebook就可以安装。安装好启动后就自动打开网页,就可以使用了。ctl-c按2次可以退出。有命令模式编辑模式。有代码框标记框(`markdown cell`)。

    作者: 黄生
    31
    0
  • 深度学习入门》笔记 - 17

    正向传播(Forward Propagation FP)算法指输入值通过神经网络得到输出值的方法。正向传播算法的计算图如下:$sigma$表示sigmoid函数,也就是激活函数。包含损失函数的计算图如下:得到$l_2$,通过$l$计算损失函数L,其中$l$表示求解损失函数的运算。

    作者: 黄生
    35
    3
  • 深度学习之批量算法

    促使我们从小数目样本中获得梯度的统计估计的动机是训练集的冗余。在最坏的情况下,训练集中所有的 m 个样本都是彼此相同的拷贝。基于采样的梯度估计可以使用单个样本计算出正确的梯度,而比原来的做法少花了 m 倍时间。实践中,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对

    作者: 小强鼓掌
    317
    1
  • 深度学习图卷积

    作者: 我的老天鹅
    825
    6
  • 深度学习之任务分类

    作者: 小强鼓掌
    724
    0
  • 深度学习入门》笔记 - 15

    ```python #定义sigmoid函数 def sigmoid(input): return 1.0/(1+np.exp(-input)) #通过随机梯度下降法估计参数 def logit_model(x,y,w,b,lr=0.1): for iter in range(60):

    作者: 黄生
    209
    2
  • 深度学习之流形假设

    不足以说明数据位于一个相当小的流形中。我们还必须确定,我们遇到的样本其他样本相互连接,每个样本被其他高度相似的样本包围,可以通过变换来遍历该流形。支持流形假设的第二个论点是,我们至少能够非正式地想象这些邻域变换。在图像中,我们当然会认为有很多可能的变换允许我们描绘出图片空间的

    作者: 小强鼓掌
    1142
    1
  • 深度学习入门》笔记 - 23

    旁,直到模型完全建立好,再用来计算模型的测试误差。模型的预测效果较差,经常是由于两类问题导致的。那就是 欠拟合,underfitting 过拟合 overfitting欠拟合就是学生根本没有学好,根本没有理解知识点。考试的时候就是不会,当然考不好。 过拟合就是学生很刻苦,但是

    作者: 黄生
    30
    2
  • 深度学习之参数共享

    些参数相等。由于我们将各种模型或模型组件解释为共享唯一的一组参数,这种正则化方法通常被称为参数共享(parameter sharing)。正则化参数使其接近(通过范数惩罚)相比,参数共享的一个显著优点是,只有参数(唯一一个集合)的子集需要被存储在内存中。对于某些特定模型,如卷积

    作者: 小强鼓掌
    825
    2
  • 深度学习之参数共享

    些参数相等。由于我们将各种模型或模型组件解释为共享唯一的一组参数,这种正则化方法通常被称为参数共享(parameter sharing)。正则化参数使其接近(通过范数惩罚)相比,参数共享的一个显著优点是,只有参数(唯一一个集合)的子集需要被存储在内存中。对于某些特定模型,如卷积

    作者: 小强鼓掌
    933
    1
  • 深度学习之对抗训练

    接近100%,模型在这个输入点 x′ 的输出与附近的数据点 x 非常不同。在许多情况下,x′ 与 x 非常近似,人类观察者不会察觉原始样本对抗样本(adversarial example)之间的差异,但是网络会作出非常不同的预测。对抗样本在很多领域有很多影响,例如计算机安全,这

    作者: 小强鼓掌
    624
    2