内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • HC2020丨训练营(3):联邦学习,打破模型训练数据安全限制难题

     应用识别的在线学习能力,探索AI算法异地泛化机制,支撑如下特性:1)提升上网后模型准确率的本质是提供AI在线训练能力。2)应用识别涉及家庭用户个人数据,可选择ONT本地学习的AI在线训练。3) ONT海量模型共享可加快学习效率, 可通过NCE或云上管理ONT协同训练。应用效果:

    作者: 就挺突然
    发表时间: 2020-11-13 16:24:15
    4266
    0
  • 贪心科技机器学习训练营(六)

    y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=2) # 训练模型, model = LogisticRegression() model.fit(X_train,y_train.values.reshape(-1

    作者: 毛利
    发表时间: 2021-07-14 22:10:38
    859
    0
  • 【第二期】学会接口,感知万物数据---【IoT在线训练营】

    总的来看其实就是用postman做三步就可以解决的了;第一步:Ps:https://49.4.92.x:8743/iocm/app/sec/v1.1.0/login ip地址从下面拿 然后就可以保存其中的信息: { "accessToken": "2db2ac3137c4208479a7a25b41925c1"

    作者: andyleung
    发表时间: 2019-04-09 10:07:03
    5811
    1
  • AIoT在线训练营4次作业打卡中奖名单

    AIoT在线训练营4次作业打卡中奖名单中奖名单如下:请中奖用户于2020年1月17日16:00前联系“小e班长”,逾期视为自动放弃获奖资格!第一次中奖名单12号 Burglar_Cat10号 孟朋朋15号 linzhuofeng第二次中奖名单22号 hanjian30号 疾风迅雷15号

    作者: Sunshine_666
    2384
    2
  • 贪心科技机器学习训练营(十)

    先把来源写上 来源:贪心学院,https://www.zhihu.com/people/tan-xin-xue-yuan/activities 使用决策树预测糖尿病 分类任务 数据源: https://www.kaggle.com/uciml/pima-indians

    作者: 毛利
    发表时间: 2021-07-15 00:20:08
    840
    0
  • 贪心科技机器学习训练营(十一)

    先把来源写上 来源:贪心学院,https://www.zhihu.com/people/tan-xin-xue-yuan/activities 往期文章: K-means算法 k - means 是无监督学习的一种,主要用于分类 首先确定K值,就是类别数,我们想

    作者: 毛利
    发表时间: 2021-07-14 23:48:29
    839
    0
  • 机器学习】(4):监督式学习

    机器学习中监督式学习是非常重要的一类,因为ML的主要出发点是利用获得的数据来补偿未知的知识,所以从训练集出发学习数据中的模式规律就是最为自然的一类 情况。今天开始自己决定利用两周左右的时间,来记录整理自己学习机器学习的笔记,主要的参考资料是Ethen Alpaydin的《机器学习

    作者: 技术火炬手
    发表时间: 2019-02-21 15:36:29
    4643
    0
  • 【java_蓝桥杯算法训练】算法训练 阿尔法乘积

    算法训练 阿尔法乘积 资源限制 时间限制:1.0s   内存限制:512.0MB 问题描述   计算一个整数的阿尔法乘积。对于一个整数x来说,它的阿尔法乘积是这样来计算的:如果x是一个个位数,那么它的阿尔法乘积就是它本身;否则的话,x的阿尔法乘积就等于它的各位非0的

    作者: 昵称:
    发表时间: 2022-02-24 14:48:33
    406
    0
  • 【java_蓝桥杯算法训练】算法训练 新生舞会

    算法训练 新生舞会 资源限制 时间限制:1.0s   内存限制:512.0MB 问题描述   新生舞会开始了。n名新生每人有三个属性:姓名、学号、性别。其中,姓名用长度不超过20的仅由大小写字母构成的字符串表示,学号用长度不超过10的仅由数字构成的字符串表示,性别用

    作者: 昵称:
    发表时间: 2022-02-23 12:42:40
    393
    0
  • 《Spark机器学习进阶实战》——1.1.2机器学习发展过程

    数据标注未知数据的过程。如图1-3所示,首先需要将数据分为训练集和样本集(训练集的类别标记已知),通过选择合适的机器学习算法,将训练数据训练成模型,通过模型对新样本集进行类别标记。图1-3 典型的机器学习过程使用机器学习解决实际问题需要具体问题具体分析,根据场景进行算法设计。

    作者: 华章计算机
    发表时间: 2019-05-30 23:19:48
    4494
    0
  • 【java_蓝桥杯算法训练 】试题 算法训练 阶乘

    试题 算法训练 阶乘 资源限制 时间限制:1.0s   内存限制:512.0MB 问题描述   一个整数n的阶乘可以写成n!,它表示从1到n这n个整数的乘积。阶乘的增长速度非常快,例如,13!就已经比较大了,已经无法存放在一个整型变量中;而35!就更大了,它已经无法

    作者: 昵称:
    发表时间: 2022-02-22 14:02:54
    372
    0
  • 训练作业使用自定版本pytorch进行训练

    3.6, linux代表操作系统为linux 将这两个放到训练作业预置框架的同目录下。 假如我的启动目录为code,启动脚本为start.py。code目录下面包含了pytorch 1.7的两个离线安装包 在训练作业的启动脚本start.py中最上方添加如下代码。之所以要加

    作者: 星月菩提
    发表时间: 2021-03-31 02:21:06
    1962
    0
  • 机器学习基础

    以这种方式训练的算法往往在训练数据集和验证数据集上表现良好,但当应用到未知的数据时可能会失败。验证数据集上的信息泄露会影响到对算法的调整。为了避免信息泄露并改进泛化的问题,通常的做法是将数据集分成3个不同的部分,即训练、验证和测试数据集。我们在训练集和验证集上训练算法并调优所有

    作者: ssdandan
    298
    0
  • 张小白OpenGauss训练营日记1——openGauss训练营学习心得

    openGauss社区、Gauss松鼠会、云和恩墨 举办的“openGauss布道师朱金伟出品:8小时玩转openGauss训练营(第二期)”活动吧。 打开 https://www.modb.pro/event/370 可以看到活动详情:

    作者: 张辉
    发表时间: 2021-09-12 16:59:33
    2599
    0
  • 机器学习之GBDT

    findLossAndSplit(x,y):  2     # 我们用 x 来表示训练数据  3     # 我们用 y 来表示训练数据的label  4     # x[i]表示训练数据的第i个特征  5     # x_i 表示第i个训练样本  6  7     # minLoss 表示最小的损失

    作者: 最后一个好人
    发表时间: 2020-11-12 16:42:56
    7507
    0
  • yolov3_darknet53训练自己的训练

    'annotations/instances_train2014.json') 训练模型          训练模型有两种方式,具体可参考README.md,但是有一点,不知道是我的问题还是脚本问题,如果使用脚本训练的时候,在输入参数时总会报错,导致读取参数失败

    作者: ~哒浪
    发表时间: 2021-04-16 10:50:03
    2135
    0
  • 模型训练

    模型训练 模型训练中除了数据和算法外,开发者花了大量时间在模型参数设计上。模型训练的参数直接影响模型的精度以及模型收敛时间,参数的选择极大依赖于开发者的经验,参数选择不当会导致模型精度无法达到预期结果,或者模型训练时间大大增加。 为了降低开发者的专业要求,

  • 机器学习入门及实践

    人。【课程大纲】 1. 机器学习概念− 机器学习简介− 框架处理− 深入了解机器学习− 降低损失− 使用TF的基本步骤− 泛化− 训练集和测试集− 验证− 表示法− 特征组合− 正则化:简单性− 逻辑回归− 分类− 正则化:稀疏性− 神经网络简介− 训练神经网络− 多类别神经网络−

    作者: G-washington
    发表时间: 2019-10-12 08:14:32
    6578
    0
  • 大规模模型训练

    大规模模型训练涉及多GPU时的并行、通讯以及模型过大等问题。并行方式对于n个GPU数据并行:不同的GPU输入不同的数据,运行相同的完整的模型。模型并行:不同的GPU运行模型的不同部分,比如多层网络的不同层;如果模型能够放进单个GPU的显存中,可以使用数据并行加速。如果模型不能够放

    作者: dailydreamer
    发表时间: 2020-02-29 17:31:29
    6223
    0
  • 训练优化笔记

      分级loss,分了10级,网络不收敛,后来分了5级,也不怎么收敛   开始loss设置很大,后来改小   如果一边增长过快,另一边则反方向运动(即与增长过快的方向移动),说明loss偏大,应该减少loss, 效果比较好的是:两边loss向各个方向收敛,方向相反

    作者: 风吹稻花香
    发表时间: 2021-06-04 15:42:45
    933
    0