已找到以下 10000 条记录
  • 深度学习框架MindSpore介绍

    了横向联邦学习、纵向联邦学习、联邦迁移学习以及联邦强化学习等方法及对应的框架。端侧推理、迁移学习和联邦学习属于端云协同的不同阶段1 编程简单MindSpore函数式可微分编程架构可以让用户聚焦模型算法数学原生表达。资深的深度学习开发者都体会过手动求解的过程,不仅求导过程复杂,结果

    作者: 运气男孩
    888
    2
  • 深度学习入门》笔记 - 07

    些偏导数等于零,解方程得到b和w的估计值。但是这个方法只适合少数结构比较简单的模型(比如线性回归模型),不能求解深度学习这类复杂模型的参数。 所以下面介绍的是深度学习中常用的优化算法:`梯度下降法`。其中有三个不同的变体:随机梯度下降法、全数据梯度下降法、和批量随机梯度下降法。

    作者: 黄生
    156
    2
  • 深度学习之浅层网络

    存在一些函数族能够在网络的深度大于某个值 d 时被高效地近似,而当深度被限制到小于或等于 d 时需要一个远远大于之前的模型。在很多情况下,浅层模型所需的隐藏单元的数量是 n 的指数级。这个结果最初被证明是在那些不与连续可微的神经网络类似的机器学习模型中出现,但现在已经扩展到了这些模型。第一个结果是关于逻辑门电路的

    作者: 小强鼓掌
    841
    1
  • 深度学习替代职业

    科技公司通过基于GAN的深度学习开发了一种名为“自动全身模型生成人工智能”的技术,他们完全是由人工智能虚拟而成,时尚品牌或广告代理商因而可以不用支付模特酬劳,也不用负担拍摄相关的人员、场地、灯光、设备、甚至是餐饮等成本,这意味着人工智能已经完全可以取代人类模特拍摄时尚宣传广告了。

    作者: 初学者7000
    959
    5
  • 深度学习应用开发》学习笔记-25

    那怎么做归一化呢,方法比较简单,就是 (特征值 - 特征值最小者)/(特征值最大值 - 特征值最小者) 这样归一化后的值,范围在 [0,1]之间。 标签值是不需要做归一化的哦 放一下有修改的代码,以及训练的结果: ```python #做归一化,对列index是0到11的特征值做归一化

    作者: 黄生
    857
    3
  • 深度学习应用开发》学习笔记-14

    这里用的损失函数是采用均方差(Mean Square Error MES),还有一个是交叉熵(cross-entropy)这个tf都提供了方法,这样写:loss_function=tf.reduce_mean(tf.squre(y-pred))这里pred是一个节点,就是调用模型

    作者: 黄生
    626
    2
  • 深度学习应用开发》学习笔记-08

    从清华镜像下载python3的anaconda,然后安装anaconda,安装后,会用到他的prompt和jupyter notebook. 然后设置anaconda的源为清华镜像,安装tensorflow。可安装不带gpu的。教学够用了。这里版本是1.2. 安装好之后,做一个简

    作者: 黄生
    1134
    3
  • 深度学习应用开发》学习笔记-29

    房价的tf2版本,有一些变化。 1是直接使用sklearn.preprocessing里的scale来做归一化,更简单便捷 2不是一股脑将数据全用于训练,划分了分别用于训练、验证、测试的数据 3损失函数,优化器方面,代码有变化,头疼~ 4对训练数据没有做打散的操作 代码如下: 最

    作者: 黄生
    769
    3
  • 华为云深度学习

    群和0.8的线性加速比,原先一个月的模型训练时间,现在1小时搞定机会难得,小伙伴们还不抓紧来体验,数量有限,先到先得哦!!点击访问华为云深度学习官网

    作者: 斑馬斑馬
    331
    0
  • 深度学习之经验风险

    机器学习算法的目标是降低式 (8.2) 所示的期望泛化误差。这个数据量被称为风险(risk)。在这里,我们强调该期望取自真实的潜在分布 pdata。如果我们知道了真实分布 pdata(x, y),那么最小化风险变成了一个可以被优化算法解决的优化问题。然而,我们遇到的机器学习问题,通常是不知道

    作者: 小强鼓掌
    628
    2
  • 深度学习入门》笔记 - 21

    的梯度消失问题。tanh函数也有梯度消失问题。ReLU(Rectified Linear Unit)函数出现和流行的时间都比较晚,但却是深度学习常用的激活函数。它非常简单: ReLU(x)=max(x,0) 是一个折线函数,所有负的输入值都变换成0,所有非负的输入值,函数值都等于

    作者: 黄生
    29
    1
  • 浅谈深度学习Backbone

    深度学习中常用的backbone有resnet系列(resnet的各种变体)、NAS网络系列(RegNet)、Mobilenet系列、Darknet系列、HRNet系列、Transformer系列和ConvNeXt。Backbone结构分类主要分成三类:CNNs结构, Trans

    作者: QGS
    82
    2
  • 深度学习之半监督学习

    深度学习的背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示的目的是使相同类中的样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集的样本应该被映射到类似的表示。在许多情况下,新空间上的线性分类器可以达到较好的泛化 (Belkin

    作者: 小强鼓掌
    750
    10
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确的,包括条件正态输出的回归网络以及那些隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    953
    2
  • 深度学习笔记之贡献

            深度学习的另一个最大的成就是其在强化学习 (reinforcement learning) 领域的扩展。在强化学习中,一个自主的智能体必须在没有人类操作者指导的情况下,通过试错来学习执行任务。DeepMind 表明,基于深度学习的强化学习系统能够学会玩Atari 视频游戏,并在多种任务中可与人类匹敌

    作者: 小强鼓掌
    856
    2
  • **Mac深度学习环境配置**

    Mac深度学习环境配置安装组合:Anaconda+PyTorch(GPU版)开源贡献:马曾欧,伦敦大学2.1 安装AnacondaAnaconda 的安装有两种方式,这里仅介绍一种最直观的- macOS graphical install。https://www.anaconda

    作者: @Wu
    591
    0
  • 深度学习之超参数

    大多数机器学习算法都有设置超参数,可以用来控制算法行为。超参数的值不是通过学习算法本身学习出来的(尽管我们可以设计一个嵌套的学习过程,一个学习算法为另一个学习算法学出最优超参数)。所示的多项式回归实例中,有一个超参数:多项式的次数,作为容量超参数。控制权重衰减程度的 λ 是另一个

    作者: 小强鼓掌
    941
    2
  • 深度学习的现实应用

    Transformers)模型,采用迁移学习和微调的方法,进一步刷新了深度学习方法在自然语言处理任务上的技术前沿。到目前为止,面向自然语言处理任务的深度学习架构仍在不断进化,与强化学习、无监督学习等的结合应该会带来效果更优的模型。1.3.4 其他领域深度学习在其他领域(如生物学、医疗和金融

    作者: 角动量
    2054
    4
  • 深度学习之任务T

    机器学习可以让我们解决一些人为设计和实现固定程序很难解决的问题。从科学和哲学的角度来看,机器学习受到关注是因为提高我们对机器学习的认识需要提高我们对智能背后原理的理解。如果考虑“任务”比较正式的定义,那么学习的过程并不是任务。在相对正式的 “任务”定义中,学习过程本身并不是任务。

    作者: 小强鼓掌
    823
    3
  • 深度学习神经网络

        什么是神经网络    我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个文章中,我会说一些直观的基础知识。让我们从一个房价预测的例子开始说起。    假设你有一个数据集,它包含了六栋房子的信息。所以,你

    作者: 运气男孩
    656
    2