内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之构建机器学习算法

    闭解。这就要求我们选择一个迭代数值优化过程,如梯度下降等。组合模型,损失函数和优化算法来构建学习算法的配方同时适用于监督学习和无监督学习。线性回归实例说明了如何适用于监督学习的。无监督学习时,我们需要定义一个只包含 X 的数据集,一个合适的无监督损失函数和一个模型。例如,通过指定

    作者: 小强鼓掌
    829
    3
  • 深度学习应用开发》学习笔记-11

    0025的位置。(梯度是固定的,还是每走一步都会变的呢?)个人认为好的学习率,不应该是一个固定值,而应该是先大后小。也就是先大步快速的到达底部附近,再小步寻找最底部。学习率是学习开始之前就设置的,叫超参数,这个是和参数不同的,参数是学习过程中学到的。这里x轴是权重值w,y轴是损失。应该说这是一

    作者: 黄生
    1128
    1
  • 深度学习笔记之评估方差

    对于如何处理估计不确定性的这个问题,贝叶斯派的答案是积分,这往往会防止过拟合。积分当然是概率法则的应用,使贝叶斯方法容易验证,而频率派机器学习基于相当特别的决定构建了一个估计,将数据集里的所有信息归纳到一个单独的点估计。贝叶斯方法和最大似然方法的第二个最大区别是由贝叶斯先验分布造

    作者: 小强鼓掌
    724
    2
  • 深度学习应用开发》学习笔记-10

    run(node1)然后是第6讲,单变量线性回归标签是我们预测的真实事物y,特征是指用于描述数据的输入变量xi样本指数据的特定实例x,有标签样本具有{特征,标签},用于训练模型;无标签样本具有{特征,?},用于对新数据做出预测模型可将样本映射到预测标签,由模型的内部参数定义,内部参数通过学习得到具体到这里,参数就是

    作者: 黄生
    1430
    3
  • 深度学习应用开发》学习笔记-30

    终于进了一步,看到了MNIST手写数字识别,使用一个神经元。 MNIST数据集来自于NIST 美国国家标准和技术研究所。 找学生和工作人员手写的。 规模:训练集55000,验证集5000,测试集10000。大小约10M。 数据集可以在网站上去下载,同时tf自己里面已经集成了这个数据集。

    作者: 黄生
    525
    0
  • AI、机器学习深度学习的关系

    作者: andyleung
    1558
    1
  • 深度学习应用开发》学习笔记-20

    落了很长时间没学,捡起来继续。编号也忘了从哪里接上,就从20开始吧。 前面弄完了一元线性回归,现在是波士顿房价预测-多元线性回归。 数据方面,12+1共13个指标,506行数据。 前面12个是多个维度的数据,维度还是比较全面的,是输入值/特征。 比如:城镇人均犯罪率、师生比例、住宅比例、边界是否为河流等

    作者: 黄生
    934
    3
  • 深度学习应用开发》学习笔记-23

    从人的角度来看,12个特征比1个特征复杂了很多, 但对计算机来说,无所谓。 在tf里,12元的线性回归方程的实现,比1元的线性方程的实现,代码上也只是多了一点点复杂度而已。 这就是计算机的优势。 只是最后训练的结果,为什么都是nan,像老师说的,脸都黑了哦~ 这次先到这里,请听下回分解~

    作者: 黄生
    1471
    4
  • 深度学习应用开发》学习笔记-28

    这个房价预测的例子基本就结束了,下面是用TensorBoard来将算法,和模型训练过程的一些信息进行可视化。可视化是一件有意见的工作,有助于信息的理解和推广。可视化在modelarts的老版的训练作业下,是收费的,但这个服务在新版的训练作业里已经没有了,也行是因为这个可视化服务的

    作者: 黄生
    837
    3
  • 深度学习LSTM模型

    长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

    作者: 我的老天鹅
    1890
    10
  • 深度学习之基于梯度的学习

    复杂一些,但仍然可以很高效而精确地实现。会介绍如何用反向传播算法以及它的现代扩展算法来求得梯度。       和其他的机器学习模型一样,为了使用基于梯度的学习方法我们必须选择一个代价函数,并且我们必须选择如何表示模型的输出。现在,我们重温这些设计上的考虑,并且特别强调神经网络的情景。

    作者: 小强鼓掌
    830
    2
  • 深度学习之Dropout优点

    非常大的数据集,正则化带来的泛化误差减少得很小。在这些情况下,使用Dropout和更大模型的计算代价可能超过正则化带来的好处。只有极少的训练样本可用时,Dropout不会很有效。在只有不到 5000 的样本的Alternative Splicing数据集上 (Xiong et al

    作者: 小强鼓掌
    639
    1
  • 昇腾学院深度学习直播笔记

    自动化设计?我们正在朝这个方向努力:深度学习自动化。 · 深度学习图像分类的最优性能:测试集错误率近几年持续下降,目前已经降到比较低的水平。还有数据受限的情况下的错误率,也在逐渐进步。 · 深度学习绝对不是我们的终点,深度学习是一块里程碑,是我们学习道路上不可缺少的工具。 · s型

    作者: 某地瓜
    1140
    1
  • 深度学习之支持向量机

     支持向量机的一个重要创新是核技巧 (kernel trick)。核策略观察到许多机器学习算法都可以写成样本间点积的形式。例如,支持向量机中的线性函数可以重写为:              其中,x(i) 是训练样本,α 是系数向量。学习算法重写为这种形式允许我们将 x替换为特征函数 φ(x) 的输出,点积替换为被称为核函数

    作者: 小强鼓掌
    955
    4
  • 深度学习应用开发》学习笔记-06

    什么是深度深度就是简单的量变。神经网络到深度神经网络,就是每一层的节点搞多一点,层数也搞多一点。但是如果说网络越深,节点越多,表现能力就越好,这个我看未必,过犹未及嘛深度神经网络本身没再多讲,讲的是卷积神经网络就是CNN。这个是在60年代的时候,在研究猫的神经元时发现的,199

    作者: 黄生
    1126
    3
  • 深度学习应用开发》学习笔记-31

    com/data/forums/attachment/forum/202108/04/105156dxvyfdoaeoob1d2w.png) ```python #插播学习一下reshape,总体顺序还是不变,但切分点变了 import numpy as np int_array=np.array([i for

    作者: 黄生
    519
    0
  • 深度学习的训练,验证,测试集

    拥有的数据,计算机配置中输入特征的数量,用**GPU**训练还是**CPU**,**GPU**和**CPU**的具体配置以及其他诸多因素。 目前为止,我觉得,对于很多应用系统,即使是经验丰富的深度学习行家也不太可能一开始就预设出最匹配的超级参数,所以说,应用深度学习是一个典型的

    作者: 运气男孩
    2218
    7
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    821
    3
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    516
    2
  • 深度学习应用开发》学习笔记-13

    Variable来声明来创建变量,它是会变的,在训练中学习到的,所以给它的初值是多少是无所谓的然后就是怎么样来训练模型了训练模型就是一个不断迭代不断改进的过程首先是训练参数,也就是超参,一个是迭代次数train_epochs,这里设置为10,根据复杂情况,可能上万次都可能的。一个是学习率learning_rate,这里默认为0

    作者: 黄生
    456
    0