已找到以下 10000 条记录。
  • 基于机器学习的深度学习的玫瑰花种类的识别

    准备自行准备一个玫瑰花朵数据,尽量多的种类和数量,下面教程已自备数据。数据预处理将图片转换为模型可以处理的格式,对数据进行归一化处理。import tensorflow as tf from tensorflow.keras.preprocessing.image import

    作者: 浩泽学编程
    36
    4
  • 分享一个Michael Bronstein 的几何深度学习免费课程

    Bronstein 是几何深度学习的先驱,他与 Joan Bruna、Taco Cohen、Petar Veličković共同撰写的《几何深度学习》是领域内的经典必读书目。除了出书,这几位作者还联合在非洲数学科学研究所推出的研究生培训计划 AMMI 中讲授了一门几何深度学习在线课程——GDL100。目前

    作者: QGS
    172
    1
  • intel ice驱动1.9.11 版本在openeuler20.03-LTS-SP3  aarch64编译安装

    intel ice驱动1.9.11 版本在openeuler20.03-LTS-SP3 aarch64无法直接编译安装,需要按照以下步骤操作环境 openeuler20.03-LTS-SP3 aarch641.intel官网下载驱动链接:https://downloadmirror

    作者: liqiang1994
    53
    1
  • 分享细数深度学习领域这些年取得的经典成果(七)

    有明显的深度优势。论文《Deep Residual Learning for Image Recognition》里介绍到该网络最深的层数可以达到1000层,而且,虽然该网络在基准任务上的表现略逊于101层和152层的网络,但总体表现依然十分优秀。这类深度网络的训练是一个非常有挑

    作者: 初学者7000
    950
    4
  • AMD/NV/Intel不用背锅了 微软下周将修复Win11系统的DX蓝屏问题

    尽管现在的Win系统已经很稳定,但还是有可能看到BOSD蓝屏,特别是涉及一些硬件及驱动的时候,其中有一个蓝屏问题就是DirectX有关的,此前大家认为是AMD/NVIDIA/Intel的显卡驱动所致,不过这更可能是微软的锅,好在下周的Win11补丁就会修复相关问题。转载于CSDN微信公众号

    作者: 星恒
    328
    8
  • 1080P超清视频 - 华为云WeLink

    1080P超清视频 您可以开启1080P超清视频功能,体验更加清晰生动的视频会议。 前提条件 登录用户:WeLink企业用户 客户端:WeLink PC版本 版本要求:7.17.X.X及以后版本 入口:个人会议管理中心-Web页创建会议 硬件配置: o CPU:Intel I5 6核6线程,Intel

  • Intel. | 突变后蛋白蛋白结合力的拓扑网络树预测模型

    )结合在一起,用于最终的GBT模型,如图1所示。 2.4 PPIs模型的性能 作者考虑了三个数据:AB-Bind数据,SKEMPI数据和SKEMPI 2.0数据,以验证所提出的TopNetTree模型。两个评估指标(Rp和均方根误差RMSE)用于评估预测的质量。

    作者: DrugAI
    发表时间: 2021-07-14 17:38:43
    1635
    0
  • Intel.| 自动因果推理在随机对照临床试验中的应用

    的背景下,可以使用 do-intervention对这种随机化进行建模。文章开发了一种新的自动因果推理方法(AutoCI),并将其应用于1990-1997年和2002-2006年间在荷兰进行的两项大规模和实践性改变的子宫内膜癌患者随机对照试验,具有完整的临床病理学数据和成熟的结

    作者: 可爱又积极
    421
    3
  • 【啃书吧:深度学习与MindSpore实践】第三章 3.2 反向传播

    中标出来。本次目标是完成第三章 3.2节反向传播(P27-P30)神经网络与2.2 节回归模型一样,都需要用梯度下降算法训练模型。2.2节可以类比成一层的神经网络,然而一个实际的神经网络动不动就几十几百层,上百万甚至上千万上亿的参数,因此用简单的回归搞不定了。神经网络要用反向传播(Backward

    作者: ML饭
    1374
    1
  • 【ModelArts-Lab AI实战营】Mask R-CNN模型解析(深度学习

    络的深度可以提高模型精度,当时人们认为十几层的网络已经是非常深的网络了,VGG的作者推断,在VGG的基础上继续增加网络深度,模型的精度还可以继续提高。然而,人们通过实验发现,简单的叠加卷积层,会导致梯度弥散和梯度爆炸现象,通过合理的初始化和对中间层的正则化,使得我们可以训练深度达

    作者: ModelArts-Lab
    5103
    2
  • 基于华为云ModelArts深度学习算法的语音识别实践

    前言利用新型的人工智能(深度学习)算法,结合清华大学开源语音数据THCHS30进行语音识别的实战演练,让使用者在了解语音识别基本的原理与实战的同时,更好的了解人工智能的相关内容与应用。通过这个实践可以了解如何使用Keras和Tensorflow构建DFCNN的语音识别神经网络,

    作者: 运气男孩
    812
    12
  • 【Android 逆向】x86 汇编 ( 参考资料 | Intel 官方的文档 | x86 汇编中文文档 | 汇编指令查询器 )

    net/download/han1202012/31843542 中下载 ; 1、Intel 官方的文档 x86 汇编最权威的文档是 Intel 官方的文档《 Intel® 64 and IA-32 Architectures Software Developer

    作者: 韩曙亮
    发表时间: 2022-01-10 16:15:05
    1059
    0
  • 【啃书吧:深度学习与MindSpore实践】第五章 5.3 残差网络

    目标是完成第5章 5.3节 残差网络(P59-P61)卷积神经网络通过 层数的递增,逐渐抽取了更深层更普遍的特征信息,换句话说,特征的层次可以靠加深网络的层次来丰富。但实际应用中,当网络层数增加时,将会遇到梯度消失或爆炸的问题,导致网络很难训练。残差网络(Residual Network,

    作者: ML饭
    1176
    1
  • Nature子刊「深度学习医学计算机视觉」综述论文

    习许多任务的非凡能力。使用大数据,CV模型可以获得多种模式识别能力——从医生级别的诊断到医疗场景感知。参见图1。a. 多模态判别模型。可以构建深度学习架构,从图像数据(通常是卷积网络)和非图像数据(通常是通用深度网络)**同学习。学习到的注释可以包括疾病诊断、预后、临床预测及其组合。b

    作者: 可爱又积极
    3361
    6
  • MindSpore在线体验感受“基于MindSpore深度学习框架实现图片分类应用”

    建议:1.  希望MindSpore能够支持Adam优化器;          2.  同样的网络及参数,MindSpore的训练时长要高于tensorflow,希望能优化一下。邮箱:chaojililin@163.com

    作者: 李响
    1243
    6
  • 学生服务器_学生租用服务器_学生免费云服务器_华为云

    准营销、电商、移动APP。推荐使用内存优化型弹性云服务器,主要提供高内存实例,同时可以配置超高IO的云硬盘和合适的带宽。 图形渲染 对图像视频质量要求高、大内存,大量数据处理,I/O并发能力。可以完成快速的数据处理交换以及大量的GPU计算能力的场景。例如图形渲染、工程制图。推荐使

  • 裸金属服务器规格与驱动对应关系 - 裸金属服务器 BMS

    表中“-”表示不需要。 使用X86 V4版本(CPU采用Intel Broadwell架构)的服务器请参考表2。 使用X86 V5版本(CPU采用Intel Skylake架构)的服务器请参考表3。 使用X86 V6版本(CPU采用Intel Cascade Lake架构)的服务器请参考表4。

  • 【atlas200】【深度学习框架】请问200现在能支持tensorflow2.0和pytorch吗?

    我们现在用pytorch写了一个目标检测模型,不知道能不能部署在atlas200上?另外atlas200的GPU加速库可以调用吗?类似cuda库这种的

    作者: inacmor
    1636
    7
  • 能否提供一个基于深度学习的LiDAR目标检测应用demo?

    (1)目前开源社区里基于深度学习的LiDAR目标检测方法还是蛮多的,但是目前没有看到华为MDC上相关的应用案例。(2)能否给广大应用开发者提供一个完整的教程和学习案例?该方案不一定是最新的方法,老掉牙的pointpillar也行呀。(3)建议:非python版本,在MDC上实际部

    作者: lm_dev
    150
    6
  • 神经网络与深度学习:神经元模型、感知机与多层网络

    为"挤压函数" (squashing function)。把许多个这样的神经元按一定的层次结构连接起来,就得到了神经网络。事实上,从计算机科学的角度看,可以先不考虑神经网络是否真的模拟了生物神经网络,只需将一个神经网络视为包含了许多参数的数学模型,这个模型是若干个函数相互嵌套得到的。这些函数可

    作者: xia1111
    3899
    2