内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 机器学习算法(二十四):启发式算法优化机器学习算法

    些工具仅适用于表现良好函数,也称为凸函数。行为良好函数包含一个最优值,无论是最大值还是最小值。在这里,我们可以将函数视为具有单个山谷(最小)/或山丘(最大)表面。因此,非凸函数就像具有多个山谷丘陵表面。 凸函数优化,也称为凸优化,适用于简单任务,例如投资组合优化

    作者: 川川菜鸟
    发表时间: 2022-08-19 16:42:30
    156
    0
  • 为什么使用启发式算法呢?

    Solution),可以从理论上证明求得解是最优,但随着问题规模扩大(可能呈指数级或者阶乘级增长),对于中等规模或者大规模问题,在有限时间内不可能求得最优解(对于我研究问题,目前可以求得42个机器最优解)。这就需要在求解精读运算时间之间有一个折衷权衡(trade off)。对于大规模问题,我

    作者: 角动量
    1535
    4
  • 为什么使用启发式算法呢?

    Solution,可以从理论上证明求得解是最优,但随着问题规模扩大(可能呈指数级或者阶乘级增长),对于中等规模或者大规模问题,在有限时间内不可能求得最优解(对于我研究问题,目前可以求得42个机器最优解)。  这就需要在求解精读运算时间之间有一个trade off。  对于大规模问题,我们不

    作者: 斑馬斑馬
    316
    0
  • 第一类算法启发式优化算法

    无论遗传算法,模拟退火算法,粒子群算法,还是后来森林算法,烟花算法,蚁群算法,这一类都是全局寻优算法。简单说就是人们把一些问题用一个优化模型建模了,解这个优化模型就可以得到问题答案。但是这些模型不能或者很难用普通数值优化办法快速得到结果,于是人们就借鉴大自然中一些自然现

    作者: 角动量
    1656
    4
  • 启发式算法以及示例

    启发式算法(Heuristic Algorithm)是一种在解决问题时通过启发式规则来选择下一步操作算法。它通常用于解决NP-hard问题,这些问题精确算法在复杂度上是不可行。 例如,贪心算法是一种常见启发式算法,它在每一步都选择当前最优选择。比如在寻找最短路径问题

    作者: yd_267761811
    发表时间: 2023-06-29 09:23:27
    1
    0
  • 深度学习学习算法

            机器学习算法是一种可以从数据中学习算法。然而,我们所谓学习”是什么意思呢?Mitchell (1997) 提供了一个简洁定义:“对于某类任务 T 性能度量P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量

    作者: 小强鼓掌
    944
    0
  • 深度学习学习算法

    衡量性能有所提升。” 经验 E,任务 T 性能度量 P 定义范围非常宽广,在本书中我们并不会去试图解释这些定义具体意义。相反,我们会在接下来章节中提供直观解释示例来介绍不同任务、性能度量经验,这些将被用来构建机器学习算法

    作者: 小强鼓掌
    736
    1
  • 启发式算法(Heuristics Algorithm)

      启发式算法是以问题为导向(Problem-oriented)程序,根据问题特殊结构或者性质来改进解。  一般情况下,启发式算法比精确方法更容易实现。  启发式算法包括构造算法(Construction Algorithm) 改进算法 (Improvement Algori

    作者: 我就是豆豆
    437
    0
  • 启发式算法(Heuristics Algorithm)

    启发式算法是以问题为导向(Problem-oriented)程序,根据问题特殊结构或者性质来改进解。一般情况下,启发式算法比精确方法更容易实现。启发式算法包括构造算法(Construction Algorithm) 改进算法 (Improvement Algorithm)等。对于构造算法(Construction

    作者: 角动量
    1871
    2
  • 分享深度学习算法

    种架构所有方法之间异同。其分析角度包括训练数据集、网络结构设计、它们在重建性能、训练策略泛化能力上效果。对于一些关键方法,作者还使用了公开数据集私有数据进行总结比较,采用私有数据目的是测试各类方法在全新场景下泛化性能。这篇论文能够为研究深度立体匹配研究人

    作者: 初学者7000
    951
    3
  • 简述深度学习几种算法

    1、回归算法回归算法是试图采用对误差衡量来探索变量之间关系一类算法。回归算法是统计机器学习利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。常见回归算法包括:最小二乘法,逻辑回归,逐步式回归,多元自适应回归样条以及

    作者: 运气男孩
    840
    3
  • 深度学习之构建机器学习算法

    降等。组合模型,损失函数优化算法来构建学习算法配方同时适用于监督学习无监督学习。线性回归实例说明了如何适用于监督学习。无监督学习时,我们需要定义一个只包含 X 数据集,一个合适无监督损失函数一个模型。例如,通过指定如下损失函数可以得到PCA第一个主向量:J(w) =

    作者: 小强鼓掌
    829
    3
  • 深度学习之构建机器学习算法

    降等。组合模型,损失函数优化算法来构建学习算法配方同时适用于监督学习无监督学习。线性回归实例说明了如何适用于监督学习。无监督学习时,我们需要定义一个只包含 X 数据集,一个合适无监督损失函数一个模型。例如,通过指定如下损失函数可以得到PCA第一个主向量模型定义为重建函数

    作者: 小强鼓掌
    525
    1
  • 启发式算法常用操作详解

    问题描述很多问题优化可以建模为基于序列优化,如旅行商问题(TSP),排产问题,各类资源分配问题等,不同序列有不同优度。寻找最优序列问题是NP难问题(其解空间为N!)。2. 解决方法 1. 常用两种方法解决这类问题:一种是启发式算法,基于问题本身规则得到较好可行解,本质是

    作者: Abracadabra
    发表时间: 2020-08-27 15:56:49
    5754
    1
  • 深度学习之批量算法

    促使我们从小数目样本中获得梯度统计估计动机是训练集冗余。在最坏情况下,训练集中所有的 m 个样本都是彼此相同拷贝。基于采样梯度估计可以使用单个样本计算出正确梯度,而比原来做法少花了 m 倍时间。实践中,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对

    作者: 小强鼓掌
    314
    1
  • 深度学习之批量算法

    机器学习算法一般优化算法不同一点是,机器学习算法目标函数通常可以分解为训练样本上求和。机器学习优化算法在计算参数每一次更新时通常仅使用整个代价函数中一部分项来估计代价函数期望值。另一个促使我们从小数目样本中获得梯度统计估计动机是训练集冗余。在最坏情况下,训练集中所有的

    作者: 小强鼓掌
    972
    3
  • 深度学习之机器学习算法效果

    通俗地,模型容量是指其拟合各种函数能力。容量低模型可能很难拟合训练集。容量高模型可能会过拟合,因为记住了不适用于测试集训练集性质。        一种控制训练算法容量方法是选择假设空间(hypothesis space),即能够选为解决方案学习算法函数集。例如,线

    作者: 小强鼓掌
    725
    3
  • 分享深度学习算法——IMPALA:大规模强化学习算法

    icy参数,负责环境交互产生数据,Learner是负责训练参数还有同步参数给Actor。这就有个问题了,参数同步会有无法避免延迟,那这个就违背了On-policy算法更新原则,作者提出了一种很好方式解决这个问题,对有延迟数据进行修正使得on-policy训练方式可

    作者: 初学者7000
    844
    2
  • 深度学习之无监督学习算法

    弱依赖关系元素。这是因为减少表示大小一种方式是找到并消除冗余。识别并去除更多冗余使得降维算法在丢失更少信息同时显现更大压缩。        表示概念是深度学习核心主题之一,因此也是本书核心主题之一。本节会介绍表示学习算法一些简单实例。总的来说,这些实例算法会说明

    作者: 小强鼓掌
    950
    1
  • 深度学习之监督学习算法

    结构化输出问题称为监督学习。支持其他任务密度估计通常被称为无监督学习学习范式其他变种也是有可能。例如,半监督学习中,一些样本有监督目标,但其他没有。在多实例学习中,样本整个集合被标记为含有或者不含有该类样本,但是集合中单独样本是没有标记

    作者: 小强鼓掌
    864
    2