内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 分享深度学习发展的学习范式——混合学习

     这种学习范式试图去跨越监督学习与无监督学习边界。由于标签数据的匮乏和收集有标注数据集的高昂成本,它经常被用于商业环境中。从本质上讲,混合学习是这个问题的答案。我们如何才能使用监督学习方法来解决或者链接无监督学习问题?例如这样一个例子,半监督学习在机器学习领域正日益流行,因为它能

    作者: 初学者7000
    740
    1
  • 分享深度学习发展的学习范式——混合学习

        这种学习范式试图去跨越监督学习与无监督学习边界。由于标签数据的匮乏和收集有标注数据集的高昂成本,它经常被用于商业环境中。从本质上讲,混合学习是这个问题的答案。我们如何才能使用监督学习方法来解决或者链接无监督学习问题?例如这样一个例子,半监督学习在机器学习领域正日益流行,因

    作者: 初学者7000
    829
    3
  • 深度学习应用开发》学习笔记-30

    终于进了一步,看到了MNIST手写数字识别,使用一个神经元。 MNIST数据集来自于NIST 美国国家标准和技术研究所。 找学生和工作人员手写的。 规模:训练集55000,验证集5000,测试集10000。大小约10M。 数据集可以在网站上去下载,同时tf自己里面已经集成了这个数据集。

    作者: 黄生
    525
    0
  • AI、机器学习深度学习的关系

    作者: andyleung
    1558
    1
  • 深度学习应用开发》学习笔记-20

    落了很长时间没学,捡起来继续。编号也忘了从哪里接上,就从20开始吧。 前面弄完了一元线性回归,现在是波士顿房价预测-多元线性回归。 数据方面,12+1共13个指标,506行数据。 前面12个是多个维度的数据,维度还是比较全面的,是输入值/特征。 比如:城镇人均犯罪率、师生比例、住宅比例、边界是否为河流等

    作者: 黄生
    934
    3
  • 深度学习应用开发》学习笔记-23

    从人的角度来看,12个特征比1个特征要复杂了很多, 但对计算机来说,无所谓。 在tf里,12元的线性回归方程的实现,比1元的线性方程的实现,代码上也只是多了一点点复杂度而已。 这就是计算机的优势。 只是最后训练的结果,为什么都是nan,像老师说的,脸都黑了哦~ 这次先到这里,请听下回分解~

    作者: 黄生
    1471
    4
  • 深度学习应用开发》学习笔记-28

    这个房价预测的例子基本就结束了,下面是用TensorBoard来将算法,和模型训练过程的一些信息进行可视化。可视化是一件有意见的工作,有助于信息的理解和推广。可视化在modelarts的老版的训练作业下,是收费的,但这个服务在新版的训练作业里已经没有了,也行是因为这个可视化服务的

    作者: 黄生
    837
    3
  • 深度学习之基于梯度的学习

    复杂一些,但仍然可以很高效而精确地实现。会介绍如何用反向传播算法以及它的现代扩展算法来求得梯度。       和其他的机器学习模型一样,为了使用基于梯度的学习方法我们必须选择一个代价函数,并且我们必须选择如何表示模型的输出。现在,我们重温这些设计上的考虑,并且特别强调神经网络的情景。

    作者: 小强鼓掌
    830
    2
  • 深度学习应用开发》学习笔记-31

    com/data/forums/attachment/forum/202108/04/105156dxvyfdoaeoob1d2w.png) ```python #插播学习一下reshape,总体顺序还是不变,但切分点变了 import numpy as np int_array=np.array([i for

    作者: 黄生
    519
    0
  • 深度学习应用开发》学习笔记-06

    什么是深度深度就是简单的量变。神经网络到深度神经网络,就是每一层的节点搞多一点,层数也搞多一点。但是如果说网络越深,节点越多,表现能力就越好,这个我看未必,过犹未及嘛深度神经网络本身没再多讲,讲的是卷积神经网络就是CNN。这个是在60年代的时候,在研究猫的神经元时发现的,199

    作者: 黄生
    1126
    3
  • 深度学习应用开发》学习笔记-24

    上一节训练不出结果,都是nan的原因找到了,就是因为特征数据没有做归一化,那归一化是个什么概念呢?这里有一个很好的例子,做一道菜,准备好材料鸭、笋、....盐、酱油...水,再加上烹饪火候,可以做出一道菜。上面做菜的每一个要素,都可以看做一个特征变量,而重量可以看做是特征变量的值,比如鸭肉xxg

    作者: 黄生
    615
    1
  • 深度学习应用开发》学习笔记-27

    可视化还是比较重要的,因为数据能在图形上看到,会更直观,更符合人的认知思维。 这里先来展示一下loss的可视化。 用matplot将列表值画出来,调用非常简单 plt.plot(loss_list) 横坐标是列表中的索引,纵坐标是列表值,也就是loss值。 可以看到,曲线在收敛了

    作者: 黄生
    825
    2
  • 深度学习应用开发》学习笔记-32

    这里谈到了独热编码one-hot,独热编码是用来表示标签数据的。前面已经知道了,标签数据很简单,就是表示0-9范围内的一个数字。 说实话独热编码有什么用处,真的还没有理解。还有什么欧式空间的概念啊,都很陌生。 看看代码吧。 ```python #独热编码示例。 x=[3,4] tf

    作者: 黄生
    1140
    3
  • 深度学习应用开发》学习笔记-04

    在1904年的时候,生物学家了解了神经元的结构然后在1945年的时候发明了神经元模型。那么这个神经元的模型真的可以模拟生物的神经功能吗,个人觉得有点奇妙,不过动物植物本来都是很奇妙的存在。所谓的全连接层,就是说某层的一个节点,和他上一层的所有节点都有连接。就像连接的边长不同,每条

    作者: 黄生
    729
    3
  • 【转载】传统机器学习深度学习

    作者: andyleung
    1036
    5
  • 深度学习随机取样、学习

    4-8096个样本。学习率从梯度下降算法的角度来说,通过选择合适的学习率,可以使梯度下降法得到更好的性能。学习率,即参数到达最优值过程的速度快慢,当你学习率过大,即下降的快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法的性能表现。可

    作者: 运气男孩
    717
    0
  • 深度学习随机取样、学习

    4-8096个样本。学习率从梯度下降算法的角度来说,通过选择合适的学习率,可以使梯度下降法得到更好的性能。学习率,即参数到达最优值过程的速度快慢,当你学习率过大,即下降的快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法的性能表现。可

    作者: 运气男孩
    1443
    5
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    821
    3
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    516
    2
  • 深度学习概述

    少正则化参数;使用非线性模型,比如核SVM、决策树、深度学习等模型;调整模型的容量(capacity),通俗地,模型的容量是指其拟合各种函数的能力;容量低的模型可能很难拟合训练;使用集成学习方法,如Bagging,将多个弱学习器Bagging。 产生过拟合的具体原因数据噪声干扰过

    作者: 大鹏爱学习
    发表时间: 2022-10-17 10:07:38
    961
    0