内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 机器学习算法分类

    Neighbors,KNN):基于实例算法,通过距离公式来寻找相似样本来做回归预测,依赖于样本数据质和量,算法很成熟但计算量较大,因此后来又提出了KD树方法。有关KD树介绍和详解,点击这里● 决策树(Decision Trees,DT):直观运用概率图解方法,按特征来生成决策树,

    作者: xiaogang
    发表时间: 2019-01-22 19:49:19
    3868
    0
  • 机器学习算法选择(分类二)

    因此可以尝试度量学习算法。对于数据集比较大情况,首先选择基于决策树集成学习方法。当然,其他不同模型也都可以与不同集成学习策略相结合,进一步提升模型效果,但集成学习通常也会使模型更加复杂,增加训练和推理计算成本。

    作者: 黄生
    10
    0
  • 机器学习(三):线性模型

    直在最温暖地方等你”,唱就是我!哈哈哈~🌈🌈🌈 🌟🌟🌟✨✨✨ 前言: 机器学习是目前信息技术中最激动人心方向之一,其应用已经深入到生活各个层面且与普通人日常生活密切相关。🍻🍻🍻 💞作为刚入门机器学习Dream,同样对机器学习有着极高兴趣 💞

    作者: 是Dream呀
    发表时间: 2022-04-11 10:06:43
    1040
    0
  • 机器学习基础】逻辑回归模型

    生货币危机可能性,即利率调整引起汇率大幅度贬值和货币贬值幅度超过了以往水平情形,而以往模型只考虑一种情况;  (2)该模型不仅可以在样本内进行预测,还可以对样本数据进行预测;  (3)模型可以对预测结果进行比较和检验,克服了以往模型只能解释货币危机局限。  L

    作者: Micker
    2267
    4
  • 机器学习模型评价指标和方法

    Label)。二分类问题对于二分类问题,要求将实际样本分成正样本(positive)或负样本(negative),则预测结果会出现以下四种情况:二分类问题预测结果实际预测结果正样本样本真正样本(TP)负样本样本假正样本(FP)负样本样本真负样本(TN)正样本样本假负样本(FN) 例如下述场景:某

    作者: wuweibang
    6664
    2
  • 【大数据分析&机器学习】分布式机器学习

    能和算法设计问题,单台机器难以胜任,需要分布式机器学习架构。本文主要介绍分布式机器学习基础知识,并介绍主流分布式机器学习框架,结合实例介绍一些机器学习算法。 一、分布式机器学习基础 分布式机器学习一些核心问题: (1)如何提高各分布式任务节点之间网络传输效率; (2)如

    作者: Francek Chen
    发表时间: 2024-11-26 11:52:04
    0
    0
  • 《AI安全之对抗样本入门》—2 打造对抗样本工具箱

    第2章打造对抗样本工具箱对抗样本是深度学习领域一个新兴热点内容,非常强调理论和工程相结合。在开启新学习旅途之前,我们先介绍一下对抗样本环境搭建过程,强烈建议读者在Linux或者Mac环境下进行搭建,因为深度学习常用工具几乎都是基于Python开发,但是Python相关都是在

    作者: 华章计算机
    发表时间: 2019-06-17 17:47:40
    5319
    0
  • 机器学习笔记之假设检验

    假设检验 “假设“ 是对学习器泛化错误率分布某种判断或猜想,较大,相差很远可能性比较小.因此,可根据测试错误率估推出泛化错误率 分布。泛化错误率为 E 学习器在一个样本上犯错概率是g测试错误率E意味着在m个测试样本恰有€xm个被误分类.假定测试样本是从样本总体分布

    作者: ypr189
    1040
    1
  • 机器学习性能度量

    确预测为正样本概率;Recall,召回率,表示在原始样本样本,最后被正确预测为正样本概率;Specificity,常常称作特异性,它研究样本集是原始样本样本,表示是在这些负样本中最后被正确预测为负样本概率。在实际当中,我们往往希望得到precision和r

    作者: 吕小卒子
    发表时间: 2019-09-20 15:20:02
    4277
    0
  • 机器学习 组成

    秀】非监督学习(unsupervised learing)在机器学习,无监督学习问题是,在未加标签数据,试图找到隐藏结构。因为提供给学习实例是未标记,因此没有错误或报酬信号来评估潜在解决方案。无监督学习是密切相关统计数据密度估计问题。然而无监督学习还包括寻求,

    作者: 角动量
    1742
    3
  • 机器学习损失Loss

    式:3)样本方差 这里之所以列出样本方差样子,是因为样本方差更多被采用,因为他是无偏估计,只做了解。感兴趣可以到网上搜下与方差“无偏”证明。1.SSE(和方差)在统计学里,该参数计算是拟合数据很原始数据对应点误差平方和,计算公式为:其中 是真实数据,是拟合数据,

    作者: irrational
    3271
    1
  • AI-机器学习(一)

        提问:人工智能和机器学习,深度学习关系是什么?    其实很简单两句话可以概括三者间关系:机器学习是人工智能一个实现途径,深度学习机器学习一个方法发展而来。    今天我们先来讲一下机器学习概述,在后面我每周都会持续更新一些我对于机器学习以及算法一些学习心得。说到机器

    作者: 咔吧咔吧
    发表时间: 2020-10-20 15:57:24
    2848
    0
  • 【转载】MindSpore量子机器学习MindQuantum

    们可以通过调节线路逻辑门参数来使得最后测量结果符合预期。通过MindQuantumMindQuantumLayer,我们可以很容易搭建量子机器学习层,并且可以无缝跟MindSpore其他算子构成一张更大机器学习网络。下面,我们结合一个简单例子来体验一下Min

    作者: chengxiaoli
    1167
    0
  • 什么是少量样本学习(Few-Shot Learning)和零样本学习(Zero-Shot Learning)

    放世界分类任务等。 少量样本学习与零样本学习挑战与前景 尽管少量样本学习和零样本学习已经在多个领域展现了显著优势,但它们依然面临许多挑战。 模型鲁棒性:在少量样本学习,模型可能容易受到样本噪声或异常值影响。由于样本数量非常少,任何异常样本都会对模型表现造

    作者: 汪子熙
    发表时间: 2024-11-01 19:37:32
    0
    0
  • 机器学习基础】损失函数

    损失函数  损失函数是机器学习里最基础也是最为关键一个要素,通过对损失函数定义、优化,就可以衍生到我们现在常用机器学习等算法。1.损失函数  损失函数(loss function)是用来估量拟模型预测值f(x)与真实值Y不一致程度,它是一个非负实值函数,损失函数作用是衡量模型预测的好坏。通常使用L(Y

    作者: Micker
    发表时间: 2020-06-30 22:17:34
    9474
    0
  • 机器学习笔记之 ROC与AUC

    来采用不同截断点,例如若我们更重视 “查准率” ,则可选择排序靠前位置进行截断;若更重视 “查全率 ” ,则可选择靠后位置进行截断因此,排序本身质量好坏,体现了综合考虑学习器在不同任务下 ”期望泛化性能” 好坏,或者说, “一般情况下 泛化性能好坏.ROC曲线则是

    作者: ypr189
    1033
    1
  • 【技术长文】机器学习简介

    造他的人类。3. 真正机器学习我们要做其实是让机器他有自己学习能力,也就我们要做应该machine learning方向。讲比较拟人化一点,所谓machine learning方向,就是你就写段程序,然后让机器人变得了很聪明,他就能够有学习能力。接下来,你就像教一

    作者: scu-w
    840
    2
  • 机器学习算法专题(蓄力计划)】十四、机器学习逻辑回归

    文章目录 一.简介 二. 代码实现 三. 校验 训练模型 查看loss值变化 绘制决策边界: 与sklearn对比 损失函数为何不用mse? 一.简介 逻辑回归(LogisticRegression)简单来看就是在线性回归模型外面再套了一个

    作者: 毛利
    发表时间: 2021-07-14 16:03:30
    873
    0
  • 样本类别不平衡

    我在训练时候总是的不到号效果,后面发现是样本类别差别太大了,正负样本快10:1,我要怎么做呢,已经没有更多数据了

    作者: taaita
    940
    3
  • Python学习笔记(38)~样本抽样

    样本抽样 Demo #!/usr/bin/python3 from random import randint,sample ''' randint(0,50):0-50之间随机整数 range(100):[0,100) sample(lst,10):从lst 随机抽取

    作者: 海轰Pro
    发表时间: 2021-08-05 14:57:09
    706
    0