已找到以下 10000 条记录
  • 方案概述 - 高科技

    保知识最新最全 问答准确率高:对自有的全面的行业知识,在盘古大模型的加持下,将问答的准确率提升25% 预测和分析更准确:结合盘古大模型,通过对现有数据的分析,可以提供更准确的预测结果。助于企业做出更明智的决策,改进业务流程,并提高效率。 员工满意度高:基于盘古大模型的能力提供个性

  • Membership Inference Attack

    模型对其训练数据集成员的输出和对非成员的输出,如下图: 攻击者使用数据记录查询目标模型,并获取该记录的模型预测预测是一个概率向量,每类一个,表明记录属于某个类。该预测向量连同目标记录的标签被传递到攻击模型,该攻击模型推断该记录是否在目标模型的训练数据集中。 影子模型 影子模型概述

    作者: yd_255338811
    发表时间: 2024-07-15 15:04:49
    224
    0
  • 实战!轻松搭建图像分类 AI 服务

    的计算机,否则计算机的「学习」速度会非常慢。 具备以上条件后,再通过短时间(几天或一周)的学习,我们就能够完成图像分类的任务。 讨论个额外的话题,人人都能够做 AI 工程师吗? AI 的门槛是比较高的,首先得具备高等数学、统计学习和编程等基础,然后要有很强的学习能力。对于 IT 工程师来说:

    作者: 秦国首席剑教的学生
    4766
    1
  • 【云驻共创】大模型时代下的AI开发

    3 AI算法不同的学习方法 监督学习:由训练资料中学到或建立一个模式,并依此模式推测新的实例 无监督学习:没有给定先标记过的训练示例,自动对输入的资料进行聚类或分群 强化学习:与人类学习相似,对作用者的一些动作产生奖励的回馈机制,通过这个回馈机制促进学习 2.2 大语言模型的训练流程

    作者: 福州司马懿
    发表时间: 2024-08-12 00:51:32
    192
    0
  • 软件研发智能化研究员

    先的云服务技术领域,深入钻研且提供高性能、高可靠的落地产品方案。 岗位要求 1.熟悉主流机器学习深度学习框架,如Tensorflow、caffe、Pytorch等,在机器学习深度学习方面有扎实的理论基础; 2.参与过AI相关的项目并取得成功,在项目中作为主要参与人员,主导关键技术研究;

  • 多层感知机(Multilayer Perceptron)

    析和机器翻译等自然语言处理任务,通过学习文本的语义和结构信息进行分析和处理。 金融预测:多层感知机可以用于金融市场的预测和交易策略的制定,通过学习历史数据的模式和趋势进行预测和决策。 医学诊断:多层感知机可以用于医学图像分析和疾病诊断,通过学习医学影像和病人数据来辅助医生的决策和诊断。

    作者: 皮牙子抓饭
    发表时间: 2023-09-21 09:13:20
    80
    1
  • 漫画:如何学习人工智能?

    工智能,机器学习深度学习三者的关系是什么?简单来说,这三者呈现出同心圆的关系:同心圆的最外层是人工智能,从提出概念到现在,先后出现过许多种实现思路和算法。同心圆的中间层是机器学习,属于人工智能的一个子集,互联网的许多推荐算法、相关性排名算法,所依托的基础就是机器学习。同心圆的最

    作者: feichaiyu
    发表时间: 2019-10-27 02:59:27
    9827
    0
  • 深度实践OpenStack:基于Python的OpenStack组件开发—3.5.5 生成器

    generator_fib(10) result.next()说明 当使用next方法的时候,执行到生成器的末尾会产生StopIteration异常。下面学习如何使用其他方式创建生成器。我们把前面所学的列表推导:list_test = [x for x in xrange(10)]修改一下,就成为了生成器:list_test

    作者: 华章计算机
    发表时间: 2019-06-06 12:05:32
    3257
    0
  • 《Python数据挖掘与机器学习实战》—1.2 机器学习的发展历程

    律。因此,让机器自主学习的设想自然地浮出水面。基于20世纪50年代对于神经网络的研究,人们开始研究如何让机器自主学习。  第三阶段:20世纪80年代至今,机器学习达到了一个繁荣时期。由于这一时期互联网大数据及硬件GPU的出现,使得机器学习突破了瓶颈期。机器学习开始呈现“爆炸”式发

    作者: 华章计算机
    发表时间: 2019-06-16 22:55:49
    4813
    0
  • 语义分割数据集Cityscapes上SOTA方法总结

    2)如何关联边缘像素与内部像素。这里借助于一个边缘预测分支和一个方向预测分支来完成。在获得良好的边界和方向预测之后,就可以直接拿来优化现有方法预测的分割图了。所以另一问题在于,如何将现有的针对边缘的关联方向的预测应用到实际的预测优化上。这主要借助于一个坐标偏移分支。这三个分支构成

    作者: fdafad
    发表时间: 2021-04-19 06:19:12
    4667
    0
  • 开发手势识别AI应用

    基于华为云一站式AI开发平台ModelArts、端云协同AI应用开发平台HiLens,快速完成手势识别AI模型的开发与部署。

    播放量  2469
  • [科普文] 搞 Web3 要学习哪些基础知识?-转载

    免使用更加专业的工具。这样看来,授人以鱼不如授人以渔,我们可能应该给读者一些学习建议,或者补充一些基础知识,这对于那些对 Web3 感兴趣的读者,可能是有帮助的。为此,我计划发表三篇短文,第一篇介绍学习 Web3 的一些基础知识,第二篇介绍资产负债表在 Web3 和 DeFi 分

    作者: 吃完就睡,快乐加倍
    379
    1
  • 深入探讨梯度下降:优化机器学习的关键步骤(三)

    注意:后面加了一个噪音目的是使得原有的数据添加一些随机性,省的太假了~之后我们需要编写两个函数,前一个函数主要是用来计算样本的梯度,后一个函数主要包括计算学习率以及循环判断 def sgd(X_b,y,initial_theta,n_iters,epsilon=1e-8): def le

    作者: 小馒头学Python
    发表时间: 2023-11-05 10:11:13
    10
    0
  • 容忍3盘失效_系统容错能力No_1

    华为OceanStor全闪存,采用HyperMetro免网关双活方案,保障7*24小时业务永续。

    播放量  1991
  • 重磅!恺明大神 Mask R-CNN 超实用教程

    06870)中设置N=300,这也是我们这里使用的值。 所选的300个ROIs中的每一个都要经过网络的三个并行分支: 类别标签预测边界框预测掩摸预测上面的图5显示了这些分支。 在预测时,300个ROIs都会经过非极大值抑制算法(https://www.pyimagesearch.com/201

    作者: 橘座
    发表时间: 2019-11-02 16:04:49
    4841
    0
  • 软件测试的测试用例分等级有哪些

    题,我公司的项目工期大多比较短,所以我需要优先测试与需求关系特别大的功能,这时测试用例等级就能起到很大作用。  项目到后期比较稳定时,进行回归测试时因没有设置用例等级不知道哪些是重点功能,所有只能全部测试,这样就大大浪费了人力和时间。  如果设置测试用例等级  1.用例等级有统一

    作者: 夏洛zz
    3261
    1
  • 【云驻共创】华为云数据库DDS产品深度赋能

    本文适合数据库解决方案工程师(DA)、数据库交付工程师、数据库一线&二线从业者、以及对DDS感兴趣的用户,希望读者可以通过本文通过华为云数据库DDS产品深度赋能课程的学习,加强DA、交付、一线、二线对数据库产品的理解和技能提升。 本文分为5个章节展开讲解: 第1章 华为云数据库DDS产品介绍 第2章 DDS业务开发使用基础

    作者: 程思扬
    发表时间: 2022-06-20 08:22:53
    869
    0
  • 带你玩转gRPC框架

    r、gRPC、Gin、etcd都可以说比较熟悉。 为什么要写这个专栏。 在Go语言的相关学习中,发现确实如一些网友所说,Go相比Java,语言生态方面还是有一定的弱势的,因此相关技术栈的学习资料、对解决问题的经验分享等内容在互联网上相比Java都不是特别的多,而我本人则是更偏向于

    作者: 海风极客
    发表时间: 2023-05-20 14:06:31
    0
    0
  • 新型数据库系统及技术研究

    要通过有效的分析方法深入挖掘数据的价值,如通过对设备传感器的数据进行异常检测与预测,识别设备故障根因、进行预测性维护等。研究如何高效分析海量时序时空数据,在多时间线异常检测算法,时空数据异常检测、预测等方面进行突破。 3)多源关联分析 在智慧城市、智慧交通等场景中,除了时序时空数

  • 超越MobileNetV3!SkipNet:面向轻量级CNN的Bias Loss

    述符来进行有效预测;作者称之为随机预测。随机预测会对优化过程产生负面影响,并损害最终性能。本文提出通过重塑标准交叉熵来解决随机预测带来的问题,使其偏向具有有限数量独特描述特征的数据点。本文所提出的新型Bias Loss将训练重点放在一组有价值的数据点上,防止大量学习特征差的样本误

    作者: 可爱又积极
    1448
    2