已找到以下 10000 条记录
  • 深度学习如何助力图像分割方法

    的高度宽度,而通道的数量对应于类的数量。卷积层对每个像素进行分类,以确定图像的上下文,包括目标的位置。集成学习 将两个或两个以上相关分析模型的结果合成为单个。集成学习可以提高预测精度,减少泛化误差。这样就可以对图像进行精确的分类分割。通过集成学习尝试生成一组弱的基础学习器,对

    作者: @Wu
    727
    3
  • 深度学习应用开发》学习笔记-07

    还有一个是vggnet,他的问题是参数太大。深度学习的问题:1面向任务单一,依赖于大规模有标签数据,几乎是个黑箱模型。现在人工智能基本由深度学习代表了,但人工智能还有更多。。。然后就开始讲深度学习的开发框架。先整了了Theano,开始于2007年的加拿大的蒙特利尔大学。随着ten

    作者: 黄生
    827
    2
  • 主动预防-DWS快照残留问题排查与整改

    1.    问题背景及影响 DWS快照定时删除有问题,删除有快照文件残留,造成文件堆积,占用大量obs空间,长期积累可能导致 obs空间爆满,影响其他服务及本服务的正常运行。 2. 解决措施 用工具连接obs,手动清理本应删除的快照文件修复 计划在630进行补丁修复

    作者: 上官寒雨
    发表时间: 2022-09-27 07:38:08
    428
    0
  • 深度学习模型结构

    者目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: QGS
    646
    2
  • 深度学习VGG网络

    为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网

    作者: 我的老天鹅
    579
    16
  • 深度学习之过拟合

    化算法是基于梯度下降的,但是很多有用的损失函数,如 0 − 1 损失,没有有效的导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同的方法,我们真正优化的目标会更加不同于我们希望优化的目标。

    作者: 小强鼓掌
    335
    1
  • 部署深度学习模型

    虽然modelarts能够帮助我们在线上完成深度学习的模型,但是训练好的深度学习模型是怎么部署的

    作者: 初学者7000
    878
    3
  • 深度学习的概念

    深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI, Artificial Intelligence)。 深度学习学习样本数据的内在规律表示层次,

    作者: 某地瓜
    1859
    1
  • 深度学习之监督学习算法

    源自这样一个视角,教员或者老师提供目标 y 给机器学习系统,指导其应该做什么。在无监督学习中,没有教员或者老师,算法必须学会在没有指导的情况下让数据有意义。尽管无监督学习监督学习并非完全没有交集的正式概念,它们确实有助于粗略分类我们研究机器学习算法时遇到的问题。传统地,人们将回归,分类

    作者: 小强鼓掌
    865
    2
  • 主机安全是大事,低成本整改有两招

    安全能力与安全合规生态,结合客户SaaS服务业务场景,从安全监测、识别、防护、审计响应等维度为客户提供一站式的安全解决方案。一方面帮助客户快速减少网络基础环境改造安全产品投入、低成本完成安全整改;另一方面通过符合监管标准的评估,助力逸驾智能形成完整的SaaS解决方案服务,来确

    作者: 技术火炬手
    发表时间: 2020-08-26 11:10:42
    10631
    0
  • 深度学习之正则化欠约束问题

    在某些情况下,为了正确定义机器学习问题,正则化是必要的。机器学习中许多线性模型,包括线性回归 PCA,都依赖于求逆矩阵 X⊤X。只要 X⊤X 是奇异的,这些方法就会失效。当数据生成分布在一些方向上确实没有差异时,或因为例子较少(即相对输入特征(X 的列)来说)而在一些方向上没有

    作者: 小强鼓掌
    429
    1
  • 深度学习之噪声

    的整流线性隐藏单元可以简单地学会使 hi 变得很大(使增加的噪声 ϵ 变得不显著)。乘性噪声不允许这样病态地解决噪声鲁棒性问题。另一种深度学习算法——批标准化,在训练时向隐藏单元引入加性乘性噪声重新参数化模型。批标准化的主要目的是改善优化,但噪声具有正则化的效果,有时没必要再使用Dropout。

    作者: 小强鼓掌
    1045
    3
  • 深度学习: 反向传播其他的微分算法

    式在计算上的代价可能很大。反向传播算法使用简单廉价的程序来实现这个目标。    反向传播这个术语经常被误解为用于多层神经网络的整个学习算法。实际上,反向传播仅指用于计算梯度的方法,而另一种算法,例如随机梯度下降,使用该梯度来进行学习。此外,反向传播经常被误解为仅适用于多层神经网

    作者: 运气男孩
    2365
    2
  • 深度学习应用开发》学习笔记-09

    的,而设定的需求类型并没有生效:v2=tf.Variable([3,4],tf.float32)tf里的变量普通编程语言里的变量是有区别的,区别在于tf里的变量设计为学习中自动优化自动调整它的值,一般无需人工进行赋值,所以它的trainable参数默认是启用的,当然如果是要冻结这些值的时候,就不启用它了

    作者: 黄生
    1745
    3
  • 深度学习应用开发》学习笔记-31

    shape,test_image.shape,test_labels.shape) #60000条训练集里再分了55000的训练5000的验证;2828代表图片尺寸 ``` (60000, 28, 28) (60000,) (10000, 28, 28) (10000,) ```python

    作者: 黄生
    520
    0
  • 《MXNet深度学习实战》—1.1.3 深度学习

    1.1.3 深度学习在介绍深度学习之前首先需要了解下神经网络,神经网络是机器学习算法中的一个重要分支,通过叠加网络层模拟人类大脑对输入信号的特征提取,根据标签损失函数的不同,既可以做分类任务,又可以做回归任务。我们知道在机器学习的大部分算法中,特征提取一般都是手动构造的,这部分

    作者: 华章计算机
    发表时间: 2019-06-16 16:21:27
    3404
    0
  • 深度学习应用开发》学习笔记-12

    数据不是收集的,是自己生成的,好吧~一个简单的例子学习用的没关系%matplotlib inline这个是为了让在jupyter在浏览器里能够显示图像。生成y=2x+1的随机数据,数据加背景噪声限值0.4生成等差数列,100个x_data=np.linspace(-1,1,100)y_data=2*x_data+1

    作者: 黄生
    1024
    2
  • 深度学习模型结构

    目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    1146
    2
  • 深度学习随机取样、学习

    4-8096个样本。学习率从梯度下降算法的角度来说,通过选择合适的学习率,可以使梯度下降法得到更好的性能。学习率,即参数到达最优值过程的速度快慢,当你学习率过大,即下降的快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法的性能表现。可

    作者: 运气男孩
    717
    0
  • 深度学习随机取样、学习

    4-8096个样本。学习率从梯度下降算法的角度来说,通过选择合适的学习率,可以使梯度下降法得到更好的性能。学习率,即参数到达最优值过程的速度快慢,当你学习率过大,即下降的快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法的性能表现。可

    作者: 运气男孩
    1444
    5