内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之快速 Dropout

    使用Dropout训练时的随机性不是这个方法成功的必要条件。它仅仅是近似所有子模型总和的一个方法。Wang and Manning (2013) 导出了近似这种边缘分布的解析解。他们的近似被称为快速 Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收敛速度。这种方法也可以在测试时应用,能够

    作者: 小强鼓掌
    1197
    4
  • 深度学习之快速 Dropout

    使用Dropout训练时的随机性不是这个方法成功的必要条件。它仅仅是近似所有子模型总和的一个方法。Wang and Manning (2013) 导出了近似这种边缘分布的解析解。他们的近似被称为快速 Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收敛速度。这种方法也可以在测试时应用,能够

    作者: 小强鼓掌
    541
    1
  • 使用TensorFlow构建深度学习模型:图像分类与目标检测

    大家好!在本篇技术博客文章中,我们将探讨如何使用TensorFlow构建深度学习模型,重点关注图像分类与目标检测。TensorFlow是一个强大的开源机器学习框架,它提供了丰富的工具和库,使我们能够轻松地构建和训练深度学习模型。 介绍 深度学习已经在图像处理领域取得了巨大的成功。图像分类和目标检测是深度学习在计算

    作者: 皮牙子抓饭
    发表时间: 2023-06-01 14:27:26
    20
    0
  • 机器学习深度学习区别

    深度学习由经典机器学习发展而来,两者有着相同与不同特点1.完全不同的模式机器学习:使计算机能从数据中学习,并利用其学到的知识来提供答案(通常为预测)。依赖于不同的范式(paradigms),例如统计分析、寻找数据相似性、使用逻辑等深度学习:使用单一技术,最小化人脑劳动。使用被称为

    作者: 极客潇
    1358
    4
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    821
    3
  • 深度学习之机器学习的挑战

            机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    516
    2
  • 深度学习应用开发》学习笔记-26

    训练模型跑出来了后,要使用,但是我们没有数据了,因为数据都拿去训练了。 所以课程中,随机挑了一条训练数据来应用到模型里来使用。 这样是不好的,因为就像学习训练时将考试题都让你做过一遍,再让你考试就不公平了,类似于作弊了。 应该是考你运用学到的知识,来做没做过的题。 那比较好的做法呢,是有一些数据,把这些数据分一分,

    作者: 黄生
    826
    3
  • 神经网络与深度学习:神经元模型、感知机与多层网络

    神经网络是人工智能的核心之一,那么它是何时提出的呢?又是如何实现”智能“的呢? 最近一段时间在学习周志华老师的经典书籍《机器学习》,对其中的一些重点做了些总结和一些个人的理解。如有错误,还请批评指正。 1、神经元模型 Kohonen在1988提出了神经网络的定义:神经网络是由具有

    作者: xia1111
    发表时间: 2020-12-09 09:55:05
    9663
    0
  • Swin Transformer图像处理深度学习模型【转】

    Transformer是一种用于图像处理的深度学习模型,它可以用于各种计算机视觉任务,如图像分类、目标检测和语义分割等。它的主要特点是采用了分层的窗口机制,可以处理比较大的图像,同时也减少了模型参数的数量,提高了计算效率。Swin Transformer在图像处理领域取得了很好的表现,成为了最先进的模型之一。Swin

    作者: 赫塔穆勒
    30
    2
  • ATCS 一个用于训练深度学习模型的数据集

    数据集概览 A-Train云分割数据集旨在训练深度学习模型,从多角度卫星图像中体积分割云层。该数据集包含丰富的云层信息,适用于云检测研究。 资源获取 数据集由NASA开放,用户可以从其开放数据门户下载相关数据,进行云检测和深度学习算法的训练。 应用场景 除了云检测,该数据

    作者: 此星光明
    发表时间: 2024-09-08 12:32:17
    332
    0
  • 深度学习之随机梯度下降

    趋向于无限大时,该模型最终会在随机梯度下降抽样训练集上的每个样本前收敛到可能的最优测试误差。继续增加 m 不会延长达到模型可能的最优测试误差的时间。从这点来看,我们可以认为用SGD训练模型的渐近代价是关于m 的函数的 O(1) 级别。       在深度学习之前,学习非线性模型的主要方法

    作者: 小强鼓掌
    1324
    1
  • 深度学习笔记》二

    最小二乘法该如何称呼呢? 对于线性回归而言,最小二乘法才是算法。那线性回归不叫算法又该叫什么呢?最好是叫模型。 在李航老师编写的《统计学习方法》一书的概念论述中,一个完整的统计学习方法包括模型、策略和算法三个要素,这是非常经典的论述。 模型就是机器学习在所有的模型空间中要采用的模型类别,如线性回归和感知机模型.

    作者: 黄生
    发表时间: 2023-08-27 19:55:43
    28
    0
  • 深度学习服务产品介绍

    深度学习服务是基于华为云强大高性能计算提供的一站式深度学习平台服务,内置大量优化的网络模型,以便捷、高效的方式帮助用户轻松使用深度学习技术,通过灵活调度按需服务化方式提供模型训练。

    播放量  20251
  • 深度学习概述

    多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强;减少正则化参数,正则化的目的是用来防止过拟合的,但是模型出现了欠拟合,则需要减少正则化参数;使用非线性模型,比如核SVM、决策树、深度学习模型;调整模型的容量(capacit

    作者: 大鹏爱学习
    发表时间: 2022-10-17 10:07:38
    961
    0
  • Pytorch模型训练实用教程学习笔记:二、模型的构建

    std=0.01) 模型参数保存和加载 在我之前的博文深度学习基础:7.模型的保存与加载/学习率调度中提到过模型的保存和加载,摘过来放到这里。 模型保存: torch.save(net.state_dict(), 'net_params.pt') 1 模型加载: model

    作者: zstar
    发表时间: 2022-08-05 17:37:22
    182
    0
  • 深度学习之过拟合

    然而,经验风险最小化很容易导致过拟合。高容量的模型会简单地记住训练集。在很多情况下,经验风险最小化并非真的可行。最有效的现代优化算法是基于梯度下降的,但是很多有用的损失函数,如 0 − 1 损失,没有有效的导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化

    作者: 小强鼓掌
    335
    1
  • 【转载】深度学习与人脑

    深度学习是机器学习的一个子集,它通过接收大量数据并试图从中学习来模拟人脑。在IBM对该术语的定义中,深度学习使系统能够“聚集数据,并以令人难以置信的准确性做出预测。” 然而,尽管深度学习令人难以置信,但IBM尖锐地指出,它无法触及人脑处理和学习信息的能力。深度学习和 DNN(深度

    作者: 乔天伊
    19
    3
  • 针对深度学习模型的对抗性攻击与防御综述论文

    最终安全性会成为进一 步广泛部署人工智能系统的最大挑战.以深度学习为代表的人工智能技术,至今仍然 是一个黑匣子.目前对深度学习模型的内在脆弱性 以及针对其弱点设计的对抗性攻击技术的理解尚不 充分,需要基础理论揭示深度学习背后的机理.但是 深度学习模型参数规模大、结构复杂、可解释性差, 对于对抗性攻击的生成机理分析十分困难.针对这

    作者: 可爱又积极
    2043
    3
  • 深度学习之流形学习

    字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习 (manifold learning) 算法通过一个假设来克服这个障碍,该假设认为 Rn 中大

    作者: 小强鼓掌
    1676
    3
  • 深度学习中的模型架构详解:RNN、LSTM、TextCNN和Transformer

    深度学习中的模型架构详解:RNN、LSTM、TextCNN和Transformer @[TOC] 在自然语言处理(NLP)领域,模型架构的不断发展极大地推动了技术的进步。从早期的循环神经网络(RNN)到长短期记忆网络(LSTM)、再到卷积神经网络(TextCNN)和Tran

    作者: Byyyi耀
    发表时间: 2024-08-07 22:31:26
    59
    0