内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习应用开发》学习笔记-04

    在1904年的时候,生物学家了解了神经元的结构然后在1945年的时候发明了神经元模型。那么这个神经元的模型真的可以模拟生物的神经功能吗,个人觉得有点奇妙,不过动物植物本来都是很奇妙的存在。所谓的全连接层,就是说某层的一个节点,和他上一层的所有节点都有连接。就像连接的边长不同,每条

    作者: 黄生
    729
    3
  • 【转载】传统机器学习深度学习

    作者: andyleung
    1036
    5
  • 深度学习应用开发》学习笔记-32

    这里谈到了独热编码one-hot,独热编码是用来表示标签数据的。前面已经知道了,标签数据很简单,就是表示0-9范围内的一个数字。 说实话独热编码有什么用处,真的还没有理解。还有什么欧式空间的概念啊,都很陌生。 看看代码吧。 ```python #独热编码示例。 x=[3,4] tf

    作者: 黄生
    1141
    3
  • 深度学习应用开发》学习笔记-27

    可视化还是比较重要的,因为数据能在图形上看到,会更直观,更符合人的认知思维。 这里先来展示一下loss的可视化。 用matplot将列表值画出来,调用非常简单 plt.plot(loss_list) 横坐标是列表中的索引,纵坐标是列表值,也就是loss值。 可以看到,曲线在收敛了

    作者: 黄生
    827
    2
  • 【CodeArts IDE】使用CodeArts IDE 运行程序后没有可用终端可以输入

    问题现象:使用CodeArts IDE for C/C++ 运行程序后没有可用终端可以输入解决办法:CodeArts for C/C++暂不支持单独运行一个main函数,只支持运行真个项目,单个main函数可以在控制台编译运行

    作者: DTSE知识库
    11
    0
  • 深度学习应用开发》学习笔记-06

    什么是深度深度就是简单的量变。神经网络到深度神经网络,就是每一层的节点搞多一点,层数也搞多一点。但是如果说网络越深,节点越多,表现能力就越好,这个我看未必,过犹未及嘛深度神经网络本身没再多讲,讲的是卷积神经网络就是CNN。这个是在60年代的时候,在研究猫的神经元时发现的,199

    作者: 黄生
    1127
    3
  • 深度学习-语义分割

    本质上即为每个类别创建一个输出通道。因为上图有5个类别,所以网络输出的通道数也为5,如下图所示:如上图所示,预测的结果可以通过对每个像素在深度上求argmax的方式被整合到一张分割图中。进而,我们可以轻松地通过重叠的方式观察到每个目标。argmax的方式也很好理解。如上图所示,每

    作者: @Wu
    642
    0
  • IDE之Eric:Python的IDE之eric的简介、安装、使用方法之详细攻略

    IDE之Eric:Python的IDE之eric的简介、安装、使用方法之详细攻略       目录 Eric的简介 Eric的安装 Eric的使用方法(配置) 1、运行Eric6,打开界面

    作者: 一个处女座的程序猿
    发表时间: 2021-05-28 00:34:35
    1127
    0
  • 深度学习应用开发》学习笔记-21

    说道:矩阵运算,是机器学习的基本手段,必须要掌握。 所以后面有线性代数、矩阵运算的基本介绍。 标量是一个特殊的向量(行向量、列向量),向量是一个特殊的矩阵;这样说来,标量,也是一个特殊的矩阵,一行一列的矩阵。 看代码吧 ```python import numpy as np ```

    作者: 黄生
    1038
    2
  • 深度学习应用开发》学习笔记-20

    落了很长时间没学,捡起来继续。编号也忘了从哪里接上,就从20开始吧。 前面弄完了一元线性回归,现在是波士顿房价预测-多元线性回归。 数据方面,12+1共13个指标,506行数据。 前面12个是多个维度的数据,维度还是比较全面的,是输入值/特征。 比如:城镇人均犯罪率、师生比例、住宅比例、边界是否为河流等

    作者: 黄生
    934
    3
  • 深度学习应用开发》学习笔记-23

    从人的角度来看,12个特征比1个特征要复杂了很多, 但对计算机来说,无所谓。 在tf里,12元的线性回归方程的实现,比1元的线性方程的实现,代码上也只是多了一点点复杂度而已。 这就是计算机的优势。 只是最后训练的结果,为什么都是nan,像老师说的,脸都黑了哦~ 这次先到这里,请听下回分解~

    作者: 黄生
    1471
    4
  • 深度学习应用开发》学习笔记-30

    终于进了一步,看到了MNIST手写数字识别,使用一个神经元。 MNIST数据集来自于NIST 美国国家标准和技术研究所。 找学生和工作人员手写的。 规模:训练集55000,验证集5000,测试集10000。大小约10M。 数据集可以在网站上去下载,同时tf自己里面已经集成了这个数据集。

    作者: 黄生
    527
    0
  • AI、机器学习深度学习的关系

    作者: andyleung
    1560
    1
  • 深度学习应用开发》学习笔记-28

    这个房价预测的例子基本就结束了,下面是用TensorBoard来将算法,和模型训练过程的一些信息进行可视化。可视化是一件有意见的工作,有助于信息的理解和推广。可视化在modelarts的老版的训练作业下,是收费的,但这个服务在新版的训练作业里已经没有了,也行是因为这个可视化服务的

    作者: 黄生
    838
    3
  • Cloud IDE go语言排障

    GO语言一张白纸,从CloudIDE开始,也算是云原生了吧。学习一门语言,最好的方法直接是上代码,搜了下没找到最佳实践,就从csdn上找到些例子:package main import "fmt" func main() {        var line int = 10 //

    作者: lte网络工程师
    2154
    2
  • 深度学习卷积操作

    卷积操作就是filter矩阵跟filter覆盖的图片局部区域矩阵对应的每个元素相乘后累加求和。

    作者: 我的老天鹅
    630
    8
  • 深度学习之Dropout

    Dropout(Dropout)(Srivastava et al., 2014) 提供了正则化一大类模型的方法,计算方便但功能强大。在第一种近似下,Dropout可以被认为是集成大量深层神经网络的实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个

    作者: 小强鼓掌
    1024
    2
  • 深度学习之推断

    在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好

    作者: 小强鼓掌
    427
    4
  • 深度学习框架TensorFlow

        TensorFlow是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief   。Tensorflow拥有多层级结构,可部

    作者: QGS
    555
    0
  • MobaXterm x11 forward 显示远程IDE

    这个功能真的挺酷的,有点像vmware的进程unity模式,但是unity模式似乎不支持win<-linux; 首先在windows上面安装Mobaxterm,然后下载CLion-2020.1.tar.gz,并且放到linux侧的目录中;然后使用Mobaxterm连接对应主机,进入相应目录

    作者: Amrf
    发表时间: 2020-11-30 16:07:25
    4252
    0