内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 分享深度学习发展的混合学习

      这种学习范式试图跨越监督学习和非监督学习之间的界限。由于缺少标签数据和收集标签数据集的高成本,它通常用于业务环境中。从本质上讲,混合学习就是这个问题的答案。我们如何使用监督学习方法来解决或联系非监督学习问题?例如,半监督学习在机器学习领域正变得越来越流行,因为它可以很好地处理

    作者: 初学者7000
    930
    1
  • 深度学习应用开发》学习笔记-07

    还有一个是vggnet,他的问题是参数太大。深度学习的问题:1面向任务单一,依赖于大规模有标签数据,几乎是个黑箱模型。现在人工智能基本由深度学习代表了,但人工智能还有更多。。。然后就开始讲深度学习的开发框架。先整了了Theano,开始于2007年的加拿大的蒙特利尔大学。随着ten

    作者: 黄生
    827
    2
  • 深度学习之过拟合

    化算法是基于梯度下降的,但是很多有用的损失函数,如 0 − 1 损失,没有有效的导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同的方法,我们真正优化的目标会更加不同于我们希望优化的目标。

    作者: 小强鼓掌
    335
    1
  • 《Keras深度学习实战》—3.8.2 怎么

    3.8.2 怎么和前几节一样,利用适当的网络拓扑创建一个序贯模型。本节中使用的优化器是Keras中的AdaDelta实现: AdaDelta优化器Keras文档中建议将此优化器的参数保留为默认值。优化器的初始化参数:lr:大于等于0的浮点数,表示学习率。建议将其保留为默认值。r

    作者: 华章计算机
    发表时间: 2019-06-15 13:53:47
    7038
    0
  • 深度学习应用开发》学习笔记-12

    数据不是收集的,是自己生成的,好吧~一个简单的例子学习用的没关系%matplotlib inline这个是为了让在jupyter在浏览器里能够显示图像。生成y=2x+1的随机数据,数据加背景噪声限值0.4生成等差数列,100个x_data=np.linspace(-1,1,100)y_data=2*x_data+1

    作者: 黄生
    1024
    2
  • 深度学习应用开发》学习笔记-24

    上一节训练不出结果,都是nan的原因找到了,就是因为特征数据没有归一化,那归一化是个什么概念呢?这里有一个很好的例子,一道菜,准备好材料鸭、笋、....盐、酱油...水,再加上烹饪火候,可以做出一道菜。上面做菜的每一个要素,都可以看做一个特征变量,而重量可以看做是特征变量的值,比如鸭肉xxg

    作者: 黄生
    615
    1
  • 深度学习的概念

    深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI, Artificial Intelligence)。 深度学习学习样本数据的内在规律和表示层次,

    作者: 某地瓜
    1859
    1
  • 深度学习模型结构

    目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    1146
    2
  • 深度学习之噪声

    ϵ 的整流线性隐藏单元可以简单地学会使 hi 变得很大(使增加的噪声 ϵ 变得不显著)。乘性噪声不允许这样病态地解决噪声鲁棒性问题。另一种深度学习算法——批标准化,在训练时向隐藏单元引入加性和乘性噪声重新参数化模型。批标准化的主要目的是改善优化,但噪声具有正则化的效果,有时没必要再使用Dropout。

    作者: 小强鼓掌
    1045
    3
  • 《Keras深度学习实战》—2.8.2 怎么

    2.8.2 怎么首先,我们需要使用Keras API定义适当的层,这里的关键API作用是创建合并层并使用它来创建解译层。concatenate函数concatenate函数用于合并两个模型,如以下代码所示: 以下是完整的模型拓扑代码: 模型拓扑保存到文件中,并显示单个输入层如何馈送到两个特征提取层,如下图所示:

    作者: 华章计算机
    发表时间: 2019-06-15 12:42:40
    7507
    0
  • Ubuntu修改代理

    http://mirrors.aliyun.com/ubuntu/ xenial main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted

    作者: irrational
    发表时间: 2022-01-17 14:53:36
    1071
    0
  • 深度学习应用开发》学习笔记-31

    com/data/forums/attachment/forum/202108/04/105156dxvyfdoaeoob1d2w.png) ```python #插播学习一下reshape,总体顺序还是不变,但切分点变了 import numpy as np int_array=np.array([i for

    作者: 黄生
    520
    0
  • 深度学习之基于梯度的学习

    复杂一些,但仍然可以很高效而精确地实现。会介绍如何用反向传播算法以及它的现代扩展算法来求得梯度。       和其他的机器学习模型一样,为了使用基于梯度的学习方法我们必须选择一个代价函数,并且我们必须选择如何表示模型的输出。现在,我们重温这些设计上的考虑,并且特别强调神经网络的情景。

    作者: 小强鼓掌
    833
    2
  • 《Keras深度学习实战》—1.2.2 怎么

    1.2.2 怎么接下来将介绍在安装Keras之前必须安装的各个组件。安装miniconda首先,为了更方便地安装所需软件包,你需要先进行miniconda的安装。miniconda是conda软件包管理器的精简版本,可以用它进行Python虚拟环境的创建。建议读者安装Python

    作者: 华章计算机
    发表时间: 2019-06-14 19:14:37
    7718
    0
  • 深度学习应用开发》学习笔记-02

    难易程度也可以看出,围棋是最强调系统性思维的,所以 AI想要战胜人类也是最难的。第一讲到这里就结束了,第二讲看了一点,其中关于人工智能机器学习概念,除了公式的定义之外,用类比的方法讲的非常的简单易懂

    作者: 黄生
    1353
    3
  • 深度学习随机取样、学习

    4-8096个样本。学习率从梯度下降算法的角度来说,通过选择合适的学习率,可以使梯度下降法得到更好的性能。学习率,即参数到达最优值过程的速度快慢,当你学习率过大,即下降的快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法的性能表现。可

    作者: 运气男孩
    717
    0
  • 深度学习随机取样、学习

    4-8096个样本。学习率从梯度下降算法的角度来说,通过选择合适的学习率,可以使梯度下降法得到更好的性能。学习率,即参数到达最优值过程的速度快慢,当你学习率过大,即下降的快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法的性能表现。可

    作者: 运气男孩
    1444
    5
  • 深度学习的应用

    计算机视觉香港中文大学的多媒体实验室是最早应用深度学习进行计算机视觉研究的华人团队。在世界级人工智能竞赛LFW(大规模人脸识别竞赛)上,该实验室曾力压FaceBook夺得冠军,使得人工智能在该领域的识别能力首次超越真人。语音识别微软研究人员通过与hinton合作,首先将RBM和D

    作者: QGS
    657
    1
  • 深度学习的应用

    计算机视觉香港中文大学的多媒体实验室是最早应用深度学习进行计算机视觉研究的华人团队。在世界级人工智能竞赛LFW(大规模人脸识别竞赛)上,该实验室曾力压FaceBook夺得冠军,使得人工智能在该领域的识别能力首次超越真人。语音识别微软研究人员通过与hinton合作,首先将RBM和D

    作者: QGS
    1525
    2
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    821
    3