内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 前端也要学习基本的UI设计原则与实践套路

    响更好 注意事项: 颜色虽好,使用不当会打破页面层级平衡 色盲消费不了颜色 颜色在不同文化中可能有不同的含义 设计体系------深度 深度的感官来源于生活,类似于光照的效果,来打造一种层级。 就是我们常用的阴影感 实用技巧 实用技巧------图片上的层级 图片上的色

    作者: 是乃德也是Ned
    发表时间: 2022-09-02 07:54:05
    142
    0
  • 深度揭秘LDA:开启人工智能降维与分类优化的大门》

    别分析(LDA)脱颖而出,作为一种强大的监督学习降维方法,它在提升分类性能方面发挥着关键作用。 一、LDA:核心原理大起底 LDA的基本理念扎根于对数据类内和类间关系的深度剖析。从根本上来说,它旨在探寻一个最为理想的线性变换方式,将高维度的数据巧妙地投影到低维度的空间之中。在这个

    作者: 程序员阿伟
    发表时间: 2025-02-04 18:01:17
    0
    0
  • 《Python大规模机器学习》 —3.2支持向量机

    r loss或L2 hinge loss始终比hinge loss效果好。最后,选择成本函数可归结为针对每个不同的学习问题测试其可用函数(根据无免费午餐定理,机器学习中没有适合所有问题的解决方法)。

    作者: 华章计算机
    发表时间: 2020-02-14 22:16:20
    6222
    0
  • 目标检测 | Anchor free之CenterNet深度解析

    文章来源于AI算法修炼营 ,作者周威网络结构 顾名思义,CornerNet以检测框的两个角点为基础进行物体的检测,而CenterNet以检测框的中心为基础进行物体位置的检测.CenterNet和CornerNet的网络结构类似,如下为CornerNet的网络结构。由于Corne

    作者: @Wu
    259
    1
  • 深度神经网络--反向传播》今天你读书了吗?

    我们的目的是得到每一个神经元的q和w。这个参数的获取一般是通过梯度下降算法得到的。因此我们需要设置损失函数,使损失函数到达最小。这个过程就是反向传播算法。求得损失函数最小那么就需要对一个经过前向传播得到的q,w进行在损失函数中的求导得到梯度,然后根据得到的梯度对q,w进行更新一个

    作者: QGS
    2160
    2
  • 深度数据包检测 (DPI) 构建用户画像 

    在当今这个信息爆炸的时代,品牌了解自己的用户变得越来越重要。用户画像中包含了用户的年龄、性别、地域、社交关系、兴趣偏好、触媒习惯、行为特征、消费习惯等信息,可以帮助品牌深入了解目标用户群体,洞察用户真正的动机和行为。 构建用户画像的原理和机制主要基于对用户行为数据的收集、分析和建

    作者: dataget
    68
    6
  • 人工智能在线展点学习有感

    入挖掘过这门语言,这学期也才刚刚开始接触专业课,所以坦白来说,这次参加的人工智能在线展点还有一些别的活动,我都是非常一知半解的,觉得自己所学习的知识和直播里老师们讲的完全没有关系,但是也情有可原。说不出来学到了什么,因为问题太多,都不知道从何问起,但是参加了肯定就会有所收获,更何

    作者: 无聊蘑菇
    发表时间: 2020-03-31 19:31:08
    8181
    0
  • 如何科学高效的学习Web前端开发?

    们,不知道准备得怎么样了呢? 有的朋友在想方设法的学习,争取在年后的金九银十能靠实力找到一份满意的工作!有的小伙伴在准备准备回家过个团圆年,来年再战!还有的小伙伴很迷茫,想学前端,却没有方向!这篇文章,就是教你零基础如何高效的学习web前端。 web前端开发(也称为客户端开发)主

    作者: 孙叫兽
    发表时间: 2021-04-10 01:34:44
    2142
    0
  • Awesome: 自监督学习+图神经网络论文列表

    自监督学习论文listhttps://github.com/ChandlerBang/awesome-self-supervised-gnn[Arxiv 2021] Self-Supervised Multi-Channel Hypergraph Convolutional Network

    作者: 角动量
    2101
    1
  • 物体检测 迁移学习、IOU、NMS理解

    1. 迁移学习 迁移学习也即所谓的有监督预训练(Supervised pre-training),我们通常把它称之为迁移学习。比如你已经有一大堆标注好的人脸年龄分类的图片数据,训练了一个CNN,用于人脸的年龄识别。然后当你遇到新的项目任务是:人脸性别识别,那么这个

    作者: 风吹稻花香
    发表时间: 2021-06-04 17:26:35
    1671
    0
  • 学习笔记|线性支持向量机的支持向量

    线性支持向量机学习的原始问题是 其对偶问题是 对偶问题的KKT条件为 (可参见学习笔记|广义拉格朗日函数与KKT条件的应用) 令对偶问题的解为 参考文献 【1】统计学习方法(第2版),李航著,清华大学出版社

    作者: darkpard
    发表时间: 2021-12-02 12:15:08
    1483
    0
  • 强化学习中的对抗性训练策略探索

    I. 引言 在强化学习(Reinforcement Learning,RL)领域,对抗性训练策略的探索一直备受关注。随着深度学习和强化学习的不断发展,对抗性训练策略在提高模型的鲁棒性、应对环境变化和攻击等方面具有重要意义。本文将探讨在强化学习中对抗性训练策略的相关概念、方法和应用,以及一些典型的案例研究。

    作者: Y-StarryDreamer
    发表时间: 2024-05-20 15:22:35
    4
    0
  • 华为云学院-人人学loT学习笔记- 第三章 窄带无线,宽带互联

    (EPC核心网MME,HSS,PGW,SGW):网络层;负责数据信息的接入,传输和转发。(eNodeB基站是低成本站点解决方案,支持更大容量的连接,通过原有的2G或4G基站上通过软件或通过基带板进行升级,并且相比之前支持更大容量的连接)2,NB-IoT核心网包括四个核心网源。这四

    作者: 多米诺的古牌
    664
    1
  • linux之自己总结学习linux的资源推荐

    1、学习linux前辈的网站 安卓和linux网络编程  http://www.cnblogs.com/hnrainll/ IBM学习linux技术地址: https://www.ibm.com/developerworks/cn/views/linux/libraryview

    作者: chenyu
    发表时间: 2021-07-26 16:27:52
    1070
    0
  • Java学习笔记3.2.2 类的封装 - 方法的重载

    文章目录 零、本讲学习目标 一、为什么要引入重载 (一)假设场景 (二)困境所在 (三)解决办法 二、案例演示方法重载

    作者: howard2005
    发表时间: 2022-05-11 14:30:54
    192
    0
  • 全连接、局部连接、全卷积与局部卷积学习笔记

    全卷积的连接方式;相比与全卷积会成倍引入额外参数,但有更强的灵活性和表达能力;相比于局部连接,可以有效控制参数量 以下内容转自: 深度学习——全连接,局部感知,权值共享,卷积输入输出的个人理解_simple丨li的博客-CSDN博客_局部感知 首先理解: 1、全连接层1:(输入为卷积)

    作者: 风吹稻花香
    发表时间: 2022-04-11 16:50:23
    794
    0
  • 《 跟老男孩学Linux运维:核心基础篇(上)(第2版)》 —2 企业级CentOS7.6操作系统的安装

    Windows系统都是64位系统了。2.学习场景对于初学Linux的读者来说,使用32位或64位的系统都是可以的(两者会略有区别,但不是很大),但还是建议大家尽可能地使用64位的系统,以便与企业应用环境保持一致,这样才能提升学习效率与学习效果。笔者在工作及教学中发现,有部分硬件(

    作者: 华章计算机
    发表时间: 2019-11-15 13:29:14
    6783
    0
  • 《Python大规模机器学习》— 2.4.3 ​其他基本变换

    假想的例子,它在内存中流化以便被学习,之后,转换为另一个向量vv,其中v的原始特征伴随着其乘积交互作用的结果(每个特征与其他所有特征相乘一次)。鉴于特征数量较多,学习算法使用vv向量代替原始v向量作为输入,以便更好地拟合数据: 随着示例数据流入学习算法,可以动态生成类似的甚至更复

    作者: 华章计算机
    发表时间: 2019-06-12 22:22:37
    2236
    0
  • 《Python大规模机器学习》—2.4.3 ​其他基本变换

    假想的例子,它在内存中流化以便被学习,之后,转换为另一个向量vv,其中v的原始特征伴随着其乘积交互作用的结果(每个特征与其他所有特征相乘一次)。鉴于特征数量较多,学习算法使用vv向量代替原始v向量作为输入,以便更好地拟合数据: 随着示例数据流入学习算法,可以动态生成类似的甚至更复

    作者: 华章计算机
    发表时间: 2019-06-12 22:37:07
    2435
    0
  • 《Python大规模机器学习》 —2.4.3其他基本变换

    假想的例子,它在内存中流化以便被学习,之后,转换为另一个向量vv,其中v的原始特征伴随着其乘积交互作用的结果(每个特征与其他所有特征相乘一次)。鉴于特征数量较多,学习算法使用vv向量代替原始v向量作为输入,以便更好地拟合数据: 随着示例数据流入学习算法,可以动态生成类似的甚至更复

    作者: 华章计算机
    发表时间: 2020-02-14 21:57:20
    4735
    0