内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 什么是AI、机器学习深度学习

    也造就了深度学习的蓬勃发展,“深度学习”才一下子火热起来。击败李世石的Alpha go即是深度学习的一个很好的示例。Google的TensorFlow是开源深度学习系统一个比较好的实现,支持CNN、RNN和LSTM算法,是目前在图像识别、自然语言处理方面最流行的深度神经网络模型

    作者: Amber
    11523
    6
  • 深度学习模型轻量化

    、算子优化等3. 硬件层加速。这个维度主要在AI硬件芯片层,目前有GPU、FPGA、ASIC等多种方案,各种TPU、NPU就是ASIC这种方案,通过专门为深度学习进行芯片定制,大大加速模型运行速度。

    作者: 可爱又积极
    1261
    4
  • 深度学习之构建机器学习算法

    这就要求我们选择一个迭代数值优化过程,如梯度下降等。组合模型,损失函数和优化算法来构建学习算法的配方同时适用于监督学习和无监督学习。线性回归实例说明了如何适用于监督学习的。无监督学习时,我们需要定义一个只包含 X 的数据集,一个合适的无监督损失函数和一个模型。例如,通过指定如下

    作者: 小强鼓掌
    525
    1
  • 深度学习基础

    理解神经网络基本原理及常见深度学习算法的结构和基本原理。

  • 深度学习之构建机器学习算法

    闭解。这就要求我们选择一个迭代数值优化过程,如梯度下降等。组合模型,损失函数和优化算法来构建学习算法的配方同时适用于监督学习和无监督学习。线性回归实例说明了如何适用于监督学习的。无监督学习时,我们需要定义一个只包含 X 的数据集,一个合适的无监督损失函数和一个模型。例如,通过指定

    作者: 小强鼓掌
    830
    3
  • 深度学习应用开发》学习笔记-11

    太快步子大了容易扯着蛋,也没有必要。这里的用学习率/步长来描述这个节奏,如果梯度是2.5,学习率是0.01,那下一个尝试的点是距离前一个点2.5*0.01=0.0025的位置。(梯度是固定的,还是每走一步都会变的呢?)个人认为好的学习率,不应该是一个固定值,而应该是先大后小。也就

    作者: 黄生
    1128
    1
  • 【昇腾】Snt9B服务器NPU驱动升级解决方案

    aarch64, 出现对应软件run包列表: 固件包: Ascend-hdk-910b-npu-firmware_6.4.0.4.220.run 驱动包:Ascend-hdk-910b-npu-driver_23.0.rc3_linux-aarch64.run (2) 找到上方正

    作者: modelarts-dev-server
    发表时间: 2023-11-24 18:16:01
    134
    0
  • 深度学习应用开发》学习笔记-10

    征,?},用于对新数据做出预测模型可将样本映射到预测标签,由模型的内部参数定义,内部参数通过学习得到具体到这里,参数就是 y=wx+b里的w和b,也叫权重和偏差?在监督式学习中,机器学习算法通过以下方式构建模型:检查多个样本并尝试找出可最大限度的减少损失的模型。这一过程称为经验风

    作者: 黄生
    1431
    3
  • 深度学习应用开发》学习笔记-01

    人工智能相关的课程,看了一下确实很不错。课程名称叫做《深度学习应用开发 基于tensorflow的实践》。是一个入门级别的课程,不需要人工智能的基础,不需要太多的数学知识,也不需要什么编程经验。我觉得很友好呀,所以现在开始学习并记录一下第一讲:导论第二讲:环境搭建和Python快

    作者: 黄生
    1139
    5
  • atlas200怎么启动npu

    【功能模块】【操作步骤&问题现象】1、基于20.2用sd卡制作系统的sun'zi'b2、【截图信息】【日志信息】(可选,上传日志内容或者附件)

    作者: 华星
    1452
    4
  • 适合新手的深度学习综述(4)--深度学习方法

    本文转载自机器之心。深度神经网络在监督学习中取得了巨大的成功。此外,深度学习模型在无监督、混合和强化学习方面也非常成功。4.1 深度监督学习监督学习应用在当数据标记、分类器分类或数值预测的情况。LeCun 等人 (2015) 对监督学习方法以及深层结构的形成给出了一个精简的解释。Deng

    作者: @Wu
    177
    1
  • NPU910产品】【tf1迁移模型】运行提示没有用到NPU

    【功能模块】tf1模型在GPU上跑通,迁移到NPU上,运行到sess.run() 附近提示没有用到NPU。【操作步骤&问题现象】 #这里是面向npu的操作改写代码 # config = tf.compat.v1.ConfigProto(allow_soft_placement=True)

    作者: yd_292700122
    580
    2
  • 深度学习应用开发》学习笔记-31

    com/data/forums/attachment/forum/202108/04/105156dxvyfdoaeoob1d2w.png) ```python #插播学习一下reshape,总体顺序还是不变,但切分点变了 import numpy as np int_array=np.array([i for

    作者: 黄生
    520
    0
  • 深度学习GRU

    Gated Recurrent Unit – GRU 是 LSTM 的一个变体。他保留了 LSTM 划重点,遗忘不重要信息的特点,在long-term 传播的时候也不会被丢失。

    作者: 我的老天鹅
    1264
    13
  • npu-smi使用方法

    更多详情可以参考文档:https://support.huawei.com/enterprise/zh/doc/EDOC1100149864/90ea4803

    作者: Tianyi_Li
    2278
    0
  • BTS迁移到NPU报错求助

    原始代码链接:https://github.com/saeid-h/bts-fully-tf原始代码可以运行,打印loss,按照教程迁移,教程链接:https://support.huaweicloud.com/ug-tf-training-tensorflow/atlasmprtg_13_0006

    作者: Tianyi_Li
    1650
    5
  • 深度学习应用开发》学习笔记-24

    上一节训练不出结果,都是nan的原因找到了,就是因为特征数据没有做归一化,那归一化是个什么概念呢?这里有一个很好的例子,做一道菜,准备好材料鸭、笋、....盐、酱油...水,再加上烹饪火候,可以做出一道菜。上面做菜的每一个要素,都可以看做一个特征变量,而重量可以看做是特征变量的值,比如鸭肉xxg

    作者: 黄生
    615
    1
  • 【转载】传统机器学习深度学习

    作者: andyleung
    1036
    5
  • 深度学习应用开发》学习笔记-04

    在1904年的时候,生物学家了解了神经元的结构然后在1945年的时候发明了神经元模型。那么这个神经元的模型真的可以模拟生物的神经功能吗,个人觉得有点奇妙,不过动物植物本来都是很奇妙的存在。所谓的全连接层,就是说某层的一个节点,和他上一层的所有节点都有连接。就像连接的边长不同,每条

    作者: 黄生
    729
    3
  • 深度学习应用开发》学习笔记-32

    这里谈到了独热编码one-hot,独热编码是用来表示标签数据的。前面已经知道了,标签数据很简单,就是表示0-9范围内的一个数字。 说实话独热编码有什么用处,真的还没有理解。还有什么欧式空间的概念啊,都很陌生。 看看代码吧。 ```python #独热编码示例。 x=[3,4] tf

    作者: 黄生
    1141
    3
提示

您即将访问非华为云网站,请注意账号财产安全