内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习应用开发》学习笔记-20

    pandas用来处理文件很方便,shuffle就是洗牌,我们打牌,一局结束后需要洗牌后再开始下一局 这里介绍了pandas库,处理常规大小数据文件,会很方便,基于BSD协议库。 可以自动转换为numpy多维数组。 下面是代码 ```python %matplotlib notebook

    作者: 黄生
    934
    3
  • 深度学习应用开发》学习笔记-23

    从人角度来看,12个特征比1个特征要复杂了很多, 但对计算机来说,无所谓。 在tf里,12元线性回归方程实现,比1元线性方程实现,代码上也只是多了一点点复杂度而已。 这就是计算机优势。 只是最后训练结果,为什么都是nan,像老师说,脸都黑了哦~ 这次先到这里,请听下回分解~

    作者: 黄生
    1471
    4
  • 深度学习之推断

    在Bagging情况下,每一个模型在其相应训练集上训练到收敛。在Dropout情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之是,在单个步骤中我们训练一小部分子网络,参数共享会使得剩余子网络也能有好参数设定

    作者: 小强鼓掌
    427
    4
  • 深度学习之Dropout

    处理。Dropout提供了一种廉价Bagging集成近似,能够训练和评估指数级数量神经网络。具体而言,Dropout训练集成包括所有从基础网络除去非输出单元后形成子网络。最先进神经网络基于一系列仿射变换和非线性变换,我们只需将一些单元输出乘零就能有效地删除一个单元。这

    作者: 小强鼓掌
    1024
    2
  • 深度学习之Dropout启发

    除。原则上,任何一种随机修改都是可接受。在实践中,我们必须选择让神经网络能够学习对抗修改类型。在理想情况下,我们也应该使用可以快速近似推断模型族。我们可以认为由向量 µ 参数化任何形式修改,是对 µ 所有可能值训练 p(y | x, µ) 集成。注意,这里不要求 µ

    作者: 小强鼓掌
    831
    3
  • 深度学习之半监督学习

    深度学习背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示目的是使相同类中样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集样本应该被映射到类似的表示。在许多情况下,新空间上线性分类器可以达到较好泛化 (Belkin

    作者: 小强鼓掌
    750
    10
  • 深度学习卷积操作

    卷积操作就是filter矩阵跟filter覆盖图片局部区域矩阵对应每个元素相乘后累加求和。

    作者: 我的老天鹅
    630
    8
  • 深度学习之浅层网络

    更确切说,他们说明分段线性网络(可以通过整流非线性或 maxout 单元获得)可以表示区域数量是网络深度指数级函数。图 6.5 解释了带有绝对值整流网络是如何创建函数镜像图像,这些函数在某些隐藏单元顶部计算,作用于隐藏单元输入。每个隐藏单元指定在哪里折叠输入空

    作者: 小强鼓掌
    841
    1
  • 深度学习之噪声鲁棒性

    其加到权重。这项技术主要用于循环神经网络 (Jim et al., 1996; Graves, 2011)。这可以被解释为关于权重贝叶斯推断随机实现。贝叶斯学习过程将权重视为不确定,并且可以通过概率分布表示这种不确定性。向权重添加噪声是反映这种不确定性一种实用随机方法。

    作者: 小强鼓掌
    638
    1
  • 深度学习修炼(一)——从机器学习转向深度学习

    说,各种深度学习框架已经提供了我们所需各种颜料。我们要做,就是利用不同颜料,在空白纸上,一笔一划画出我们所需网络。 深度学习改变了传统互联网业务。第一次听到这个名词时可能大家都会对这方面的知识感到一头雾水,到底什么是深度学习?实际上,深度学习已经应用到生活中点点滴滴

    作者: ArimaMisaki
    发表时间: 2022-08-08 16:45:09
    244
    0
  • 深度学习视觉语音分析

    31]推动了基于深度学习VSA研究进一步发展。在本文中,我们主要研究基于深度学习VSA方法。VSA技术从2016年到现在里程碑如图1所示,包括具有代表性深度VSR和VSG方法以及相关视听数据集。 图1 从2016年到现在视觉语音分析时间里程碑,包括代表性VSR和VSG

    作者: 可爱又积极
    315
    2
  • MSG·杭州 | 学习最有发展潜力深度学习框架MindSpore

    如果你想学习深度学习框架 软硬结合必备知识!了解前沿技术成果! 完成第一个社区PR提交! 随MSG·杭州走进杭州电子科技大学 本周三(6月09日),MSG·杭州我们将邀请华为MindSpore布道师Jane老师。带你了解国内最有发展潜力深度学习框架——MindSpor

    作者: chengxiaoli
    849
    0
  • 深度学习之隐藏单元

    隐藏单元设计是一个非常活跃研究领域,并且还没有许多明确指导性理论原则。整流线性单元是隐藏单元极好默认选择。许多其他类型隐藏单元也是可用。决定何时使用哪种类型隐藏单元是困难事(尽管整流线性单元通常是一个可接受选择)。我们这里描述对于每种隐藏单元一些基本直觉。这些

    作者: 小强鼓掌
    639
    2
  • 深度学习笔记》笔记(一)

    model)计算执行方向如下。感觉和线性回归很像呀。 但据说感知机模型不能用于线性回归问题,因为它只关注分类问题,而线性回归问题涉及到回归问题?对于线性不可分情况,在感知机基础上一般有两个解决方向。 线性不可分是指一组线性数据点,这些数据点上无法划分一条直线来分开类别内所有数据

    作者: 黄生
    42
    4
  • 深度学习应用开发》学习笔记-08

    后者比较死板,因为门槛高而被初学者所诟病。这个有点像敏捷和瀑布式开发区别。原来1.x课件会保留,因为有助于底层原理理解,而2.0课件也会更新。这样处理非常好,与时俱进,很负责任。并且建议先看2.0编程基础那一节。

    作者: 黄生
    1134
    3
  • 浅谈深度学习模型压缩

    网络相近性能   知识蒸馏作为前端压缩比较热门一种压缩技术,其核心思想是通过学习方法,将庞大复杂模型迁移到一个精简小模型上,尽量保持原有模型特征和精度。这两个模型就类似于老师和学生两个角色,大模型是老师,精简模型是学生,通过一定学习方法尽量继承大模型特征,而这

    作者: QGS
    37
    1
  • 深度学习应用开发》学习笔记-14

    izer()然后开始迭代训练,训练内容,是每次将样本逐个输入模型,进行梯度下降优化操作。这里为了演示,每轮迭代后绘制出模型曲线(这里有点不清楚地方,是将样本输入模型?还是训练得到了模型?我觉得是前者,训练得到只是参数值,模型不是训练出来)训练代码:for xs,ys in

    作者: 黄生
    626
    2
  • 深度学习之模板匹配

    1999)。核机器一个主要缺点是计算决策函数成本关于训练样本数目是线性。因为第 i 个样本贡献 αik(x, x(i)) 到决策函数。支持向量机能够通过学习主要包含零向量 α,以缓和这个缺点。那么判断新样本类别仅需要计算非零 αi 对应训练样本核函数。这些训练样本被称为支持向量

    作者: 小强鼓掌
    464
    1
  • 深度学习应用开发》学习笔记-29

    房价tf2版本,有一些变化。 1是直接使用sklearn.preprocessing里scale来做归一化,更简单便捷 2不是一股脑将数据全用于训练,划分了分别用于训练、验证、测试数据 3损失函数,优化器方面,代码有变化,头疼~ 4对训练数据没有做打散操作 代码如下: 最

    作者: 黄生
    769
    3
  • 深度学习应用开发》学习笔记-25

    特征值最小者)/(特征值最大值 - 特征值最小者) 这样归一化后值,范围在 [0,1]之间。 标签值是不需要做归一化哦 放一下有修改代码,以及训练结果: ```python #做归一化,对列index是0到11特征值做归一化 #列index是12是标签值,不需要做归一化哦 for i in

    作者: 黄生
    857
    3