已找到以下 10000 条记录
  • Bioinformatics | MICER: 用于分子图像字幕的预训练编码-解码架构

    问题。基于深度学习的方法可以整合不同的图像风格并自动学习有价值的特征,这种方法很灵活。但目前研究不足,存在局限性,因此没有得到充分的利用。 结果 MICER是一个基于编码器-解码器的、用于分子图像识别的重构架构,它结合了迁移学习、注意机制和几种策略,以加强不同数据集的有效性和

    作者: DrugAI
    发表时间: 2022-08-24 14:31:01
    196
    0
  • 强化学习预置算法

    Learning(强化学习预置算法)1. 概述该强化学习预置算法中,为用户提供了常用的强化学习算法,目前包括五个常用算法(DQN、PPO、A2C、IMPALA以及APEX)。用户订阅之后,选择算法只需设置对应参数,即可很方便地创建训练作业,开始训练相应的强化学习环境(内置环境或自定

    作者: 大赛技术圈小助手
    522
    0
  • ROS2学习和使用SLAM算法(gmapping/cartographer/orb-slam等)

    ros2-cartographer 这里以orb-slam2在Ubuntu18.04配置为例简要说明一下,如果有ros1基础学习ros2非常快,没有ros1基础,推荐直接学习ros2~ 在链接: https://github.com/raulmur/ORB_SLAM2 

    作者: zhangrelay
    发表时间: 2021-07-14 18:34:25
    1648
    0
  • 关于迁移学习核心技术开发与应用的进修计划书

    纲计划一、机器学习简介与经典机器学习算法介绍二、深度学习简介与经典网络结构介绍三、迁移学习基础四、深度迁移学习介绍五、迁移学习前沿方法介绍六、迁移学习前沿应用七、小样本学习、Transformer等前沿方法与应用八、实验实操之实操环境搭建九、实验实操之深度迁移学习实践十、实验实操

    作者: 人工智能君
    133
    1
  • NeurIPS TAPE | 用于评估蛋白质表示学习性能的多任务平台

    模型性能的方法:TAPE。 1、摘要 蛋白质表示学习是机器学习研究的一个日益热门的领域。由于获取监督蛋白质标签的成本较高,但目前的文献在数据集和标准化评价技术方面比较零散,因此半监督学习作为蛋白质表示学习中的一种重要范式。为了促进这一领域的进展,作者引入了评估蛋白质

    作者: DrugAI
    发表时间: 2021-07-14 20:02:57
    905
    0
  • ViTag :在线 WiFi 精细时间测量辅助多人环境中的视觉-运动身份关联

    Vi-Fi [17]——一种基于深度学习的方法,它应用亲和力损失来学习相机、IMU 和 FTM 读数上的身份分配。类似于 Sun 等人[31] Masullo 等人 [23]、[24] 使用三元组损失将轮廓图像和深度学习特征的加速度联系起来。可以学习联合表示[25]以融合编码器-解码器架构中的不同模态。在

    作者: AI浩
    发表时间: 2022-11-17 22:32:15
    191
    0
  • ICML2021 | 自提升策略规划真实且可执行的分子逆合成路线

    应集中的反应(即最大化对数似然)以训练逆合成模型。 图4 算法图 3.实验 实验设置 数据集 分子构件块来自于eMolecules,产物分子和化学反应来自于USPTO数据集。该方法中数据集的处理及训练测试验证集的划分与Retro*方法一致。 评估指标 预测整条路线的损失通过路线

    作者: DrugAI
    发表时间: 2021-08-04 15:32:51
    2787
    0
  • 【机器学习】——简述有监督学习、半监督学习、无监督学习、弱监督学习

    23(2): 228-233. 弱监督学习 弱监督学习是相对于监督学习而言的。同监督学习不同,弱监督学习中的数据标签允许是不完全的,即训练集中只有一部分数据是有标签的,其余甚至绝大部分数据是没有标签的;或者说数据的监督学习是间接的,也就是机器学习的信号并不是直接指定给模型,而是通过

    作者: Lingxw_w
    发表时间: 2023-05-22 13:32:15
    7
    0
  • 训练启动脚本说明和参数配置 - AI开发平台ModelArts

    示例值需要根据数据集的不同,选择其一。 GeneralPretrainHandler:使用预训练的alpaca数据集。 GeneralInstructionHandler:使用微调的alpaca数据集。 MOSSMultiTurnHandler:使用微调的moss数据集。 MBS 4

  • 机器学习算法的优缺点(11)-关联规则学习算法&图模型

    关联规则学习算法能够提取出对数据中的变量之间的关系的最佳解释。比如说一家超市的销售数据中存在规则 {洋葱,土豆}=> {汉堡},那说明当一位客户同时购买了洋葱和土豆的时候,他很有可能还会购买汉堡肉。举例:Apriori 算法(Apriori algorithm)Eclat 算法(Eclat

    作者: @Wu
    1720
    4
  • 图机器学习调研洞察:PyG与DGL

    自己的图学习引擎,并将其广泛应用在社交网络、电商推荐、欺诈检测、知识图谱等领域。目前,主流的开源图学习引擎有DGL,PyG,GraphScope,Angel,PGL等,其基本信息如下: 可以看出,DGL和PyG支持的算法数量最多,且社区活跃度很高,充分反映了它们在图学习领域的受欢迎程度。

    作者: Splendid2025
    发表时间: 2025-02-07 19:37:01
    0
    0
  • 实战篇:神经网络赋予机器识图的能力

    深度神经网络让机器拥有了视觉的能力,实战派带你探索深度学习

  • 【图论】二分图学习笔记

    找不到题了,今天最后一个坑给二分图学习笔记吧,明天回来填。 12点之前发完10篇,ye~ 如果一张无向图的N个节点可以分成A,B两个非空集合,并且同一集合内的点之间都没

    作者: 小哈里
    发表时间: 2022-05-10 15:33:58
    900
    0
  • CVPR 2021 Oral | 妙啊!不怕遮挡的图像线段匹配 SOLD2,还能联合自监督线段检测

    描述符学习相关成功研究的推动,已经有研究者提出了一些深度线描述符。但这些方法并没有对线遮挡进行设计,线端点定位的问题也悬而未决。在  中,作者联合学习了线段的检测与描述。受LCNN [2]和Super-Point [3]的启发,作者引入了一个可以在没有任何标签的图像数据集上进行训

    作者: yyy7124
    736
    3
  • 机器学习笔记之假设检验

    假设检验中的 “假设“ 是对学习器泛化错误率分布的某种判断或猜想,较大,相差很远的可能性比较小.因此,可根据测试错误率估推出泛化错误率的 分布。泛化错误率为 E 的学习器在一个样本上犯错的概率是g测试错误率E意味着在m个测试样本中恰有€xm个被误分类.假定测试样本是从样本总体分布

    作者: ypr189
    1040
    1
  • 如何使用机器学习开发业务应用【人工智能系列之三】

    梯度提升(Gradient boosting)是一种用于回归、分类和排序任务的机器学习技术,属于Boosting算法族的一部分。Boosting是一族可将弱学习器提升为强学习器的算法,属于集成学习(ensemble learning)的范畴。Boosting方法基于这样一种思想:

    作者: usefulman
    发表时间: 2018-10-23 10:47:35
    8858
    0
  • 高分辨率图像修复

    计算机视觉:图像修复-代码环境搭建-知识总结 🍊 计算机视觉:超分重建-代码环境搭建-知识总结 🍊 深度学习:环境搭建,一文读懂 🍊 深度学习:趣学深度学习 🍊 落地部署应用:模型部署之转换-加速-封装 🍊 CV 和 语音数据集数据集整理 📙 预祝各位 前途似锦、可摘星辰 🎉 作为全网 AI

    作者: 墨理学AI
    发表时间: 2022-02-24 02:05:10
    1381
    0
  • 全球土地利用数据ESRI 10m Land Cover 2020 in GEE(Google Earth Engine)

    E410雪/冰#F2FAFF11云#C8C8C8 该数据集由 Impact Observatory 为 Esri 生成。© 2021 Esri。此数据集在知识共享 BY-4.0 许可下可用,基于此数据集的任何副本或作品都需要以下署名: This dataset

    作者: 此星光明
    发表时间: 2022-04-15 15:32:13
    1935
    0
  • 材料汇总:DGC等大数据服务官网&开通&学习资源

    ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/20227/12/1657615868071268340.png)

    作者: yd_286614829
    355
    0
  • 【MindSpore易点通】机器学习系列:神经网络的学习(上)

    危险,危险,危险——好久不见,等你在这里见面~在经过前两期关于神经网络的简单介绍后,今天小Mi将进一步介绍神经网络的代价函数、前向传播和反向传播,废话不多说,我们开干吧~1 代价函数首先引入一些便于稍后讨论的新标记方法:假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信

    作者: Skytier
    1655
    0