已找到以下 10000 条记录
  • 大V讲堂——能耗高效深度学习

    现在大多数AI模型,尤其是计算视觉领域AI模型,都是通过深度神经网络来进行构建,从2015年开始,学术界已经开始注意到现有的神经网络模型都是需要较高算力和能好。并且有大量研究论文集中于如何将这些AI模型从云上部署到端侧,为AI模型创造更多应用场景和产业价值。

  • 动手学深度学习:优化与深度学习关系

    出十分有效深度学习模型。小结由于优化算法目标函数通常是一个基于训练数据集损失函数,优化目标在于降低训练误差。由于深度学习模型参数通常都是高维,目标函数鞍点通常比局部最小值更常见。练习对于深度学习优化问题,你还能想到哪些其他挑战?本文摘自《动手学深度学习》动手学深度学习作者:阿斯顿·张(Aston

    作者: 且听风吟
    发表时间: 2019-09-04 09:40:07
    6962
    0
  • 深度学习视觉语音分析

    31]推动了基于深度学习VSA研究进一步发展。在本文中,我们主要研究基于深度学习VSA方法。VSA技术从2016年到现在里程碑如图1所示,包括具有代表性深度VSR和VSG方法以及相关视听数据集。 图1 从2016年到现在视觉语音分析时间里程碑,包括代表性VSR和VSG

    作者: 可爱又积极
    315
    2
  • 深度学习之Dropout启发

    除。原则上,任何一种随机修改都是可接受。在实践中,我们必须选择让神经网络能够学习对抗修改类型。在理想情况下,我们也应该使用可以快速近似推断模型族。我们可以认为由向量 µ 参数化任何形式修改,是对 µ 所有可能值训练 p(y | x, µ) 集成。注意,这里不要求 µ

    作者: 小强鼓掌
    831
    3
  • 深度学习之推断

    在Bagging情况下,每一个模型在其相应训练集上训练到收敛。在Dropout情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之是,在单个步骤中我们训练一小部分子网络,参数共享会使得剩余子网络也能有好参数设定

    作者: 小强鼓掌
    427
    4
  • 深度学习之Dropout

    处理。Dropout提供了一种廉价Bagging集成近似,能够训练和评估指数级数量神经网络。具体而言,Dropout训练集成包括所有从基础网络除去非输出单元后形成子网络。最先进神经网络基于一系列仿射变换和非线性变换,我们只需将一些单元输出乘零就能有效地删除一个单元。这

    作者: 小强鼓掌
    1024
    2
  • 深度学习卷积操作

    卷积操作就是filter矩阵跟filter覆盖图片局部区域矩阵对应每个元素相乘后累加求和。

    作者: 我的老天鹅
    630
    8
  • 深度学习之半监督学习

    深度学习背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示目的是使相同类中样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集样本应该被映射到类似的表示。在许多情况下,新空间上线性分类器可以达到较好泛化 (Belkin

    作者: 小强鼓掌
    750
    10
  • 云机器人技术研究

    云机器人技术研究 云机器人技术研究 领域方向:云机器人 工作地点: 深圳 云机器人技术研究 云机器人 深圳 项目简介 近年来机器人场景应用越来越广泛,如工厂、家庭、医疗、公共服务等,但机器人开发和运行效率仍面临非常大挑战,机器人与云计算结合已经成为机器人行业主要技术趋势,

  • 国外VPN_国外VPN注册_国外免费VPN

    快速数据处理交换以及大量GPU计算能力场景。例如图形渲染、工程制图。 国外VPN优势 超高可靠性 专线故障切换到VPN链路 切换速度快 VPN提供大带宽保证流量无缝切换 国外VPN常见问题 虚拟专用网络常见问题 国外VPN VPN国内与国际站点业务和网络带宽和时延,则主

  • 深度学习笔记》笔记(一)

    model)计算执行方向如下。感觉和线性回归很像呀。 但据说感知机模型不能用于线性回归问题,因为它只关注分类问题,而线性回归问题涉及到回归问题?对于线性不可分情况,在感知机基础上一般有两个解决方向。 线性不可分是指一组线性数据点,这些数据点上无法划分一条直线来分开类别内所有数据

    作者: 黄生
    42
    4
  • 深度学习TensorBoard错误

    No dashboards are active for the current data set. 特地重新训练了,记下来日志目录,都是创建TensorBoard还是错误,不知道怎么回事,求解

    作者: timo
    4077
    2
  • 深度学习之虚拟对抗

    1998)。它是一种非参数最近邻算法,其中使用度量不是通用欧几里德距离,而是根据邻近流形关于聚集概率知识导出。这个算法假设我们尝试分类样本和同一流形上样本具有相同类别。由于分类器应该对局部因素(对应于流形上移动)变化保持不变,一种合理度量是将点 x1 和 x2

    作者: 小强鼓掌
    679
    1
  • 浅谈深度学习模型压缩

    网络相近性能   知识蒸馏作为前端压缩比较热门一种压缩技术,其核心思想是通过学习方法,将庞大复杂模型迁移到一个精简小模型上,尽量保持原有模型特征和精度。这两个模型就类似于老师和学生两个角色,大模型是老师,精简模型是学生,通过一定学习方法尽量继承大模型特征,而这

    作者: QGS
    37
    1
  • 深度学习应用开发》学习笔记-08

    后者比较死板,因为门槛高而被初学者所诟病。这个有点像敏捷和瀑布式开发区别。原来1.x课件会保留,因为有助于底层原理理解,而2.0课件也会更新。这样处理非常好,与时俱进,很负责任。并且建议先看2.0编程基础那一节。

    作者: 黄生
    1134
    3
  • 【论文分享】基于博弈优化边缘学习物联网入侵检测研究

    物联网设备为中心入侵检测难以感知物联网中潜在复杂威胁。近年来,物联网设备在边缘节点(如网关等)协助下可实现高度互联互通。因此,以协作为中心入侵检测成为了研究者们研究热点。例如,在Albers等[5]研究中,多个物联网设备可构成社区,且各物联网节点中本地入侵检测系统可通过交换简单网络管理协议(SNMP

    作者: 乔天伊
    161
    0
  • 人工神经网络下深度学习

    练有监督深度神经网络,但最初尝试大都失败。赛普·霍克赖特在其博士论文中将失败原因归结为梯度消失,这一现象同时在深度前馈神经网络和循环神经网络中出现,后者训练过程类似深度网络。在分层训练过程中,本应用于修正模型参数误差随着层数增加指数递减,这导致了模型训练效率低下。

    作者: 某地瓜
    2163
    1
  • 深度学习应用开发》学习笔记-14

    izer()然后开始迭代训练,训练内容,是每次将样本逐个输入模型,进行梯度下降优化操作。这里为了演示,每轮迭代后绘制出模型曲线(这里有点不清楚地方,是将样本输入模型?还是训练得到了模型?我觉得是前者,训练得到只是参数值,模型不是训练出来)训练代码:for xs,ys in

    作者: 黄生
    626
    2
  • 深度学习应用开发》学习笔记-29

    房价tf2版本,有一些变化。 1是直接使用sklearn.preprocessing里scale来做归一化,更简单便捷 2不是一股脑将数据全用于训练,划分了分别用于训练、验证、测试数据 3损失函数,优化器方面,代码有变化,头疼~ 4对训练数据没有做打散操作 代码如下: 最

    作者: 黄生
    769
    3
  • 深度学习应用开发》学习笔记-25

    特征值最小者)/(特征值最大值 - 特征值最小者) 这样归一化后值,范围在 [0,1]之间。 标签值是不需要做归一化哦 放一下有修改代码,以及训练结果: ```python #做归一化,对列index是0到11特征值做归一化 #列index是12是标签值,不需要做归一化哦 for i in

    作者: 黄生
    857
    3