已找到以下 10000 条记录
  • 使用机器学习算法进行油井压裂施工优化

    train_test_split from sklearn.linear_model import LinearRegression 加载并准备数据集: data = pd.read_csv('fracturing_data.csv') # 假设数据存储在 'fracturing_data

    作者: 皮牙子抓饭
    发表时间: 2023-06-30 20:21:41
    10
    0
  • 基于Spark的机器学习实践 (八) - 分类算法

    决策树是一种流行的分类和回归方法。有关spark.ml实现的更多信息可以在决策树的部分中找到。 示例 以下示例以LibSVM格式加载数据集,将其拆分为训练和测试集,在第一个数据集上训练,然后评估保持测试集。我们使用两个特征变换器来准备数据;这些帮助标记和分类特征的索引类别,向决策树算法可识别的DataFrame添加元数据。

    作者: JavaEdge
    发表时间: 2021-06-03 16:26:37
    2044
    0
  • 解决ImportError: Could not find ‘cudart64_90.dll‘. TensorFlow requ

    tensorflow.keras import datasets, layers, models 接下来,我们需要加载训练数据集。在这个示例中,我们将使用MNIST手写数字数据集: pythonCopy code(train_images, train_labels), (test_images

    作者: 皮牙子抓饭
    发表时间: 2023-10-13 15:05:00
    70
    1
  • 瑞风数据可视化数据墙系统

    stgreSQL、SQL Server等关系数据库2、支持多种格式的数据集支持创建SQL、CSV、Excel、JSON数据集,可将数据集定义为动态参数化数据集,可添加文本框、下拉框、日期框、时间框等类型的数据集参数,为构建动态可交互图表提供支持3、丰富多样的图表插件内置17大类、

  • 与PaaS产品一起成长的故事:Z市台风模型地质一体化应用技术咨询实战“术”分享——模型安全测试架构搭建2

    够大模型训练的数据集数量要求,只能从互联网上爬取很多公开的文档资料,但这种方式也引入了非法数据和病毒数据。这上千份数据输入到大模型内部后,有些错误数据引起了大模型过度泛化,把错误数据集当成正确数据集来对待,产生幻觉,降低了准确率。在复核准确率的时候,发现这些数据集台风轨迹参数特别

    作者: 科技江河
    17
    2
  • 2010年全球从河流进入海洋的塑料输入量数据

    ​ 从河流到海洋的塑料输入量这个数据集显示了2010年全球从河流进入海洋的塑料输入量,以每年的公斤数表示。作者使用了关于废物管理、人口密度和水文信息的数据来创建这个模型。该数据集包括40,760个流域和182个不同国家的信息。该数据以矢量格式呈现。 我们的海洋和海岸线上的塑料污染

    作者: 此星光明
    发表时间: 2023-04-14 17:09:10
    138
    0
  • ModelArts开发者福利:新品首发特惠,限时低至2.9元/小时

    价87.6元,现价17.52元!(2折)一杯奶茶的价格,带你入手AI开发学习!Tips:活动仅限新用户参与,每位用户仅限购买1次。(2)深度学习款(40小时),全流程体验买15小时GPU赠25小时CPU,原价450元,现价270元(6折)全流程体验进阶学习课程,一次性掌握八大热门

    作者: AI-小助手
    1128
    2
  • 【MindSpore报错解决地图】常见报错问题和解决方案(持续更新)

    表。 1、数据集加载与增强报错案例 MindSpore数据集加载-调试小工具 py-spy【MindData】如何将自有数据高效的生成MindRecord格式数据集,并且防止爆内存。【MindData】在使用Dataset处理数据过程中内存占用高,怎么优化如何处理数据集加载多进程

    作者: Louie
    828
    1
  • 第二期扩展实践:提升模型精度的几种尝试

    路。既然图像增强没办法达到目的,我接下来就是尝试扩大猫狗数据集中图片的数量。通过网上搜索,我发现第二期实践提供的猫狗数据集来自于kaggle比赛中猫狗大战数据集中的训练集。于是,我从网上找到了kaggle比赛中猫狗大战数据集中的测试集(共12500张图像),并通过已有分类模型,完

    作者: leewish_yuanfang
    3998
    2
  • Scikit-Learn 中级教程——集成学习

    import train_test_split from sklearn.metrics import accuracy_score # 加载示例数据集 iris = load_iris() X_train, X_test, y_train, y_test = train_test_split(iris

    作者: Echo_Wish
    发表时间: 2024-01-23 12:45:06
    53
    0
  • 零代码基础建立AI美食分类模型-快速上手

    com/obs/index.html 本次试验涉及到OBS以下两个方面:  开通OBS服务  往OBS上传数据 下载好OBS方便上传数据集第一步,创建桶第二步,上传数据集,创建文件夹out作为数据集输出位置第三步,创建图像分类项目第四步,标注,选择图片,右侧标签名上“如下图”,点击确定即可,如果数据还太少

    作者: QGS
    发表时间: 2020-08-03 13:49:04
    2990
    0
  • 6种常见的地标识别算法整理和总结

    Place Solution to Google Landmark Retrieval 2020》 算法思路:Step1:使用清洗过的GLDv2数据集训练初始embedding模型。Step2:使用全量GLDv2数据基于Step1得到的模型进行迁移学习。Step3:逐步扩大训练图片的尺度

    作者: 阿杜
    发表时间: 2021-04-09 06:54:14
    4078
    0
  • 【modelarts】【智能标注功能】智能标注无法使用

    使用预标注功能智能标注,模型选用的是数据集之前版本训练出的一个TensorFlow模型。但是更新数据集后想要智能标注时,提示数据类型与模型不匹配。

    作者: Eric-xie
    1986
    20
  • 使用MindStudio进行PCB模型的ONNX推理

    xt 选择onnx这样就完成工程创建了 数据集获取与处理源码包下载链接:ATC PCB (FP16)-昇腾社区 (hiascend.com)中点击立即下载即可5.1获取原始数据集Market1501数据集,自行获取该数据集,上传并解压数据集到服务器任意目录(如我上传到了/opt/npu)。5

    作者: yd_255875570
    88
    0
  • ModelArts的简单使用

    、进而下载到本地)             如果数据集是多图片,数量非常多的(建议制作成压缩包上传),不然数据传输到ModelArts需要一定时间(压缩包在代码运行时从桶传到ModelArts再自己写指令解压它),10G以下的数据集可以直接上传,时间差不多.(数据量大切记使用压缩包上传: 

    作者: 厦门云脉
    1878
    1
  • 《数据科学与分析:Python语言实现》 —3.12 交叉验证

    证拆分。这些函数背后的想法是生成k个索引列表,可用于为每个折叠选择适当的数据点。例如,我们可以为Iris数据集创建10个折叠,如下所示: 图3.5 对于k=4,我们将原始数据集拆分为4个,并依次使用每个分区作为测试集。每个折叠的结果在最后阶段汇总(平均)其中,KFold有效地维护

    作者: 华章计算机
    发表时间: 2020-02-15 21:51:43
    2658
    0
  • 【ModelArts实战案例】数据校验--给你的数据做个体检吧

    被舍弃掉。4.开启任务    数据校验的输入、输出都可以指定为数据集或obs目录形式。例如选择输入为obs目录,则指定 validation_yunbao_modified_dataset 数据集的存放路径,因为数据集中包含了标注信息,因此存放结构选择 包含图片和标注信息 ,校验

    作者: lxmbslqm
    发表时间: 2020-08-07 15:51:17
    7070
    0
  • 华为ModelArts-Lab拓展试验记录(三)

    的训练过程非常吃资源,建议采用GPU进行计算。在Dlib官方网站有一个现成的模型,它使用一个由作者davis king手动标记的数据集,由来自不同数据集的图像组成,如imagenet、pascal voc、vgg、wide、face scrub,它包含7220幅图像。    基础的人脸关键点共有

    作者: cnlile
    发表时间: 2020-07-29 03:27:23
    5796
    2
  • 预测分析作业失败的排查思路

    是不一样的),此列数据在训练时将被剔除。经过上述过滤后,如果数据集不再满足第一点中关于训练数据的要求,则会导致训练失败或无法进行。建议完善数据后,再启动训练。数据集文件有以下限制:如果您使用2u8g规格,测试建议数据集文件应小于10MB。当文件大小符合限制要求,如果存在极端的数据

    作者: 运气男孩
    18
    0
  • 采石矶数据质量基础系统

    采石矶数据质量基础系统提供基于规则自动发现和执行的一站式数据质量解决方案,解决了数据治理难题,帮助企业提升数据质量,将数据价值转化为业务价值,支撑更多元业务的拓展。采石矶数据质量基础系统面向集中式/分布式数据、关系型数据,助力企业实现一站式数据治理。系统以数据质量提升为核心,提供

    交付方式: 镜像