内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习学习算法

    机器学习算法是一种可以从数据中学习算法。然而,我们所谓 ‘‘学习’’ 是什么意思呢?Mitchell (1997) 提供了一个简洁定义:‘‘对于某类任务 T 和性能度量P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量 P 衡量的性能有所提升。”

    作者: 小强鼓掌
    736
    1
  • 深度学习学习算法

            机器学习算法是一种可以从数据中学习算法。然而,我们所谓学习”是什么意思呢?Mitchell (1997) 提供了一个简洁定义:“对于某类任务 T 和性能度量P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量

    作者: 小强鼓掌
    944
    0
  • 分享深度学习算法

    种架构所有方法之间异同。其分析角度包括训练数据集、网络结构设计、它们在重建性能、训练策略和泛化能力上效果。对于一些关键方法,作者还使用了公开数据集和私有数据进行总结和比较,采用私有数据目的是测试各类方法在全新场景下泛化性能。这篇论文能够为研究深度立体匹配研究人

    作者: 初学者7000
    951
    3
  • 简述深度学习几种算法

    1、回归算法回归算法是试图采用对误差衡量来探索变量之间关系一类算法。回归算法是统计机器学习利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。常见回归算法包括:最小二乘法,逻辑回归,逐步式回归,多元自适应回归样条以及

    作者: 运气男孩
    840
    3
  • 深度学习之机器学习算法效果

    通俗地,模型容量是指其拟合各种函数能力。容量低模型可能很难拟合训练集。容量高模型可能会过拟合,因为记住了不适用于测试集训练集性质。        一种控制训练算法容量方法是选择假设空间(hypothesis space),即能够选为解决方案学习算法函数集。例如,线

    作者: 小强鼓掌
    726
    3
  • 深度学习之批量算法

    机器学习算法和一般优化算法不同一点是,机器学习算法目标函数通常可以分解为训练样本上求和。机器学习优化算法在计算参数每一次更新时通常仅使用整个代价函数中一部分项来估计代价函数期望值。另一个促使我们从小数目样本中获得梯度统计估计动机是训练集冗余。在最坏情况下,训练集中所有的

    作者: 小强鼓掌
    972
    3
  • 深度学习之批量算法

    促使我们从小数目样本中获得梯度统计估计动机是训练集冗余。在最坏情况下,训练集中所有的 m 个样本都是彼此相同拷贝。基于采样梯度估计可以使用单个样本计算出正确梯度,而比原来做法少花了 m 倍时间。实践中,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对

    作者: 小强鼓掌
    315
    1
  • 深度学习之构建机器学习算法

    组合模型,损失函数和优化算法来构建学习算法配方同时适用于监督学习和无监督学习。线性回归实例说明了如何适用于监督学习。无监督学习时,我们需要定义一个只包含 X 数据集,一个合适无监督损失函数和一个模型。例如,通过指定如下损失函数可以得到PCA第一个主向量:J(w) = Ex∼pˆdata

    作者: 小强鼓掌
    830
    3
  • 深度学习之构建机器学习算法

    组合模型,损失函数和优化算法来构建学习算法配方同时适用于监督学习和无监督学习。线性回归实例说明了如何适用于监督学习。无监督学习时,我们需要定义一个只包含 X 数据集,一个合适无监督损失函数和一个模型。例如,通过指定如下损失函数可以得到PCA第一个主向量模型定义为重建函数

    作者: 小强鼓掌
    525
    1
  • 深度学习之反向传播算法

    法则中相同子表达式。由于这些重复子表达式存在,简单算法可能具有指数运行时间。现在我们已经详细说明了反向传播算法,我们可以去理解它计算成本。如果我们假设每个操作执行都有大致相同开销,那么我们可以依据执行操作数量来分析计算成本。注意这里我们将一个操作记为计算图基本单位

    作者: 小强鼓掌
    425
    0
  • 深度学习之无监督学习算法

    依赖关系元素。这是因为减少表示大小一种方式是找到并消除冗余。识别并去除更多冗余使得降维算法在丢失更少信息同时显现更大压缩。        表示概念是深度学习核心主题之一,因此也是本书核心主题之一。本节会介绍表示学习算法一些简单实例。总的来说,这些实例算法会说明如

    作者: 小强鼓掌
    950
    1
  • 深度学习之监督学习算法

    结构化输出问题称为监督学习。支持其他任务密度估计通常被称为无监督学习学习范式其他变种也是有可能。例如,半监督学习中,一些样本有监督目标,但其他没有。在多实例学习中,样本整个集合被标记为含有或者不含有该类样本,但是集合中单独样本是没有标记

    作者: 小强鼓掌
    865
    2
  • 分享深度学习算法——IMPALA:大规模强化学习算法

    icy参数,负责和环境交互产生数据,Learner是负责训练参数还有同步参数给Actor。这就有个问题了,参数同步会有无法避免延迟,那这个就违背了On-policy算法更新原则,作者提出了一种很好方式解决这个问题,对有延迟数据进行修正使得on-policy训练方式可

    作者: 初学者7000
    845
    2
  • **Mac深度学习环境配置**

    Mac深度学习环境配置安装组合:Anaconda+PyTorch(GPU版)开源贡献:马曾欧,伦敦大学2.1 安装AnacondaAnaconda 安装有两种方式,这里仅介绍一种最直观- macOS graphical install。https://www.anaconda

    作者: @Wu
    591
    0
  • 分享深度学习算法——MetaHIN 模型

    com/rootlu/MetaHIN推荐原因推荐系统旨在预测用户对物品偏好,从而向用户提供其感兴趣商品,为用户解决信息过载问题。为了缓解推荐系统中异质信息网络“冷启动”问题,作者提出MetaHIN模型。MetaHIN在模型层面探索了元学习能力,同时在数据层面研究了异质信息网络表达能力。在MetaHIN中,作

    作者: 初学者7000
    1737
    2
  • Ubuntu深度学习环境配置

    Ubuntu深度学习环境配置安装组合:Anaconda+PyTorch(CPU版)或PyTorch(GPU版)开源贡献:陈信达,华北电力大学3.1 Anacond安装Anaconda和Python版本是对应,所以需要选择安装对应Python2.7版本还是Python3.7版本

    作者: @Wu
    664
    0
  • 深度学习之最优化算法

    有局部极小点必然是全局最小点,所以表现很好。然而,深度学习大多数问题都难以表示成凸优化形式。凸优化仅用作一些深度学习算法子程序。凸优化中分析思路对证明深度学习算法收敛性非常有用,然而一般来说,深度学习背景下凸优化重要性大大减少。

    作者: 小强鼓掌
    1144
    2
  • 深度学习之前目标检测算法

    目标检测任务,就是要让计算机不仅能够识别出输入图像中目标物体,还能够给出目标物体在图像中位置。在深度学习正式成为计算机视觉领域主题之前,传统手工特征图像算法一直是目标检测主要方法。在早期计算资源不充足背景下,研究人员图像特征表达方法有限,只能尽可能地设计更加多元化检测算法进行弥补,包括早期尺度不变特征

    作者: 黄生
    20
    3
  • 深度学习: 反向传播和其他微分算法

    是一组变量,我们需要它们导数,而 y 是函数另外一组输入变量,但我们并不需要它们导数。在学习算法中,我们最常需要梯度是代价函数关于参数梯度,即 ∇θJ(θ)。许多机器学习任务需要计算其他导数,来作为学习过程一部分,或者用来分析学得模型。反向传播算法也适用于这些任务,不局

    作者: 运气男孩
    2364
    2
  • Windows系统深度学习环境配置

    cuda安装cuda历史版本下载:https://developer.nvidia.com/cuda-toolkit-archive要看NVIDIA组件,自己CUDA支持哪个版本,我是1060显卡,所以我下10.0版本cuda• pytorch安装官网没有我组合,我满

    作者: @Wu
    448
    0