检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
预测类数据集格式要求 平台支持创建预测类数据集,创建时可导入时序数据、回归分类数据。 时序数据:时序预测数据是一种按时间顺序排列的数据序列,用于预测未来事件或趋势,过去的数据会影响未来的预测。 回归分类数据:回归分类数据包含多种预测因子(特征),用于预测连续变量的值,与时序数据不
推理参数(解码参数)是一组用于控制模型生成预测结果的参数,其可以用于控制模型生成结果的样式,如长度、随机性、创造性、多样性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考: 表1 推理参数的建议和说明 推理参数
判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化趋势。一般来说,一个正常的Loss曲线应该是单调递减的,即随着训练的
与非专业大模型相比,专业大模型针对特定场景优化,更适合执行数据分析、报告生成和业务洞察等任务。 ModelArts Studio大模型开发平台为用户提供了多种规格的专业大模型,以满足不同场景和需求。以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 模型支持区域
功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。 CTS的详细介绍和开通配置方法,请参见CTS快速入门。 父主题: 安全
获取项目ID 从控制台获取项目ID 登录管理控制台。 在页面右上角的用户名的下拉列表中选择“我的凭证”。 图1 我的凭证 在“我的凭证”页面,获取项目ID(project_id),以及账号名、账号ID、IAM用户名和IAM用户ID。 在调用盘古API时,获取的项目id需要与盘古服
请检查创建数据集时使用的数据,与平台要求的文件内容格式是否一致。 Verification failed. Please check the content format is consistent with the template requirements. 请检查创建数据集时使用的数据,与平台要求的文件内容格式是否一致。
使用数据工程构建数据集 数据工程介绍 数据工程使用流程 数据集格式要求 导入数据至盘古平台 加工数据集 发布数据集 数据工程常见报错与解决方案
范围内进行预测,不仅仅局限于某个地区。它的分辨率相当于赤道附近每个点约25公里x25公里的空间。通过降水模型预测未来的降雨情况,农民和农业管理者可以更有效地规划灌溉时间和频率,也能为可能发生的干旱提供预警,使农业部门能够及时采取措施,如推广节水技术或调整种植计划。 代码助手 在软
大模型使用类问题 盘古大模型是否可以自定义人设 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的具体文件进行上传 如何查看预置模型的历史版本
Token比(Token/英文单词) Token比(Token/汉字) N1 0.75 1.5 N2 0.88 1.24 N4 0.75 1.5 针对Token转换比,平台提供了Token计算器功能,可以根据您输入的文本计算Token数量,您可以通过以下方式使用该功能: 在左侧导航栏选择“能力调测”,单击右下角“Token计算器”使用该功能。
您可根据任务难度和数据规模进行调整。一般来说,如果目标任务的难度较大或数据量级很小,可以使用较大的训练轮数,反之可以使用较小的训练轮数。 如果您没有专业的调优经验,可以优先使用平台提供的默认值,再结合训练过程中模型的收敛情况动态调整。 数据批量大小(batch_size) >=1 4/8 数据批量大小是指对数据集进行
n限制等参数。模型参数的设置会影响模型的生成质量和多样性,因此需要根据不同的场景进行选择。 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent 开发 > 提示词工程 > 提示词开发”。 在工程任务列表页面,找到所需要操作的工程任务,单击该工程任务右侧“撰写”。
服务的请求URI即API服务的终端地址,通过该地址与API进行通信和交互。 URI获取步骤如下: 登录ModelArts Studio大模型开发平台。 进入所需工作空间。 获取请求URI。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。 图1
使用“能力调测”功能 调用API接口 “能力调测”功能支持用户直接调用已部署的预置服务,使用步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。 单击左侧“能力调测”,进入“文本对话”页签,选择服务与系统人设,参数设置为默认参数,在输入框输入问题,单击“生成”,模型将基于问题进行回答。
模型还具备模型调用等高级特性,可在智能客服、创意营销等多个典型场景中,提供强大的AI技术支持。 ModelArts Studio大模型开发平台为用户提供了多种规格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您
A:先生,您家的网络无法连接是吗 A:请问您尝试重新插拔网线吗? B:是的,我试了 B:还是不行 拼接后的微调数据格式示例: {"context": ["xxx号话务员为您服务! 先生您好,有什么可以帮助您的?", "你好,是这样的 我家里上不了网了 网连不上", "先生,您家的网络无法连接是吗 请问您尝试重新插拔网线吗?"]
当前支持10M大小的返回,超过此大小会报错。 105014 插件request proxy error。 请检查插件服务是否有问题导致无法连接。 认证鉴权 110000 认证失败。 查看认证配置。 110001 用户信息获取失败。 查看用户信息是否正确配置。 工作流 112501
判断数据中的JSON参数是否与Query中的参数对应上。 训练模型 自监督训练: 不涉及 有监督微调: 该场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表1 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 6 学习率(learning_rate)