检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
盘古科学计算大模型能力与规格 盘古科学计算大模型面向气象、医药、水务、机械、航天航空等领域,融合了AI数据建模和AI方程求解方法。该模型从海量数据中提取数理规律,利用神经网络编码微分方程,通过 AI 模型更快速、更精准地解决科学计算问题。 ModelArts Studio大模型开
创建推理作业 功能介绍 支持调用科学计算大模型创建海洋类模型的推理作业。 URI 获取URI方式请参见请求URI。 POST /tasks 科学计算大模型的API请求地址可以直接在ModelArts Studio大模型开发平台获取: 登录ModelArts Studio大模型开发平台,进入所需空间。
查询推理作业详情 功能介绍 根据创建推理作业的作业ID获取科学计算大模型的结果数据。 URI 获取URI方式请参见请求URI。 GET /tasks/{task_id} 调用查询推理作业详情API所需要的域名与创建推理作业API一致,可以参考创建推理作业获取。获取完整的创建推理作
创建推理作业 功能介绍 支持调用科学计算大模型创建气象/降水模型的推理作业。 URI 获取URI方式请参见请求URI。 POST /tasks 科学计算大模型的API请求地址可以直接在ModelArts Studio大模型开发平台获取: 登录ModelArts Studio大模型开发平台,进入所需空间。
查询推理作业详情 功能介绍 根据创建推理作业的作业ID获取科学计算大模型的结果数据。 URI 获取URI方式请参见请求URI。 GET /tasks/{task_id} 调用查询推理作业详情API所需要的域名与创建推理作业API一致,可以参考创建推理作业获取。获取完整的创建推理作
工作流执行的结果。 工作流 Token计算器 为了帮助用户更好地管理和优化Token消耗,平台提供了Token计算器工具。Token计算器可以帮助用户在模型推理前评估文本的Token数量,提供费用预估,并优化数据预处理策略。 Token计算器 用户在部署服务的过程中,建议开启“安全护栏”功能,以保证内容的安全性。
错与解决方案。 训练日志可以按照不同的节点(训练阶段)进行筛选查看。分布式训练时,任务被分配到多个工作节点上进行并行处理,每个工作节点负责处理一部分数据或执行特定的计算任务。日志也可以按照不同的工作节点(如worker-0表示第一个工作节点)进行筛选查看。 图2 获取训练日志 父主题:
如何分析大模型输出错误回答的根因 大模型的输出过程通常是一个黑盒,涉及数以亿计甚至千亿计的参数计算,虽然这些参数共同作用生成输出,但具体的决策机制并不透明。 可以通过在提示词中引导模型输出思考过程,或者在模型输出后追问模型,帮助我们分析错误的根因。例如: “我注意到你犯了xxx的错误,请解释得出该结论的原因。”
资源提高推理性能。当前仅支持对NLP大模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“模型开发 > 模型
Studio大模型开发平台是盘古大模型服务推出的集数据管理、模型训练和模型部署为一体的一站式大模型开发平台及大模型应用开发平台,盘古NLP、科学计算模型能力通过ModelArts Studio大模型开发平台承载,它提供了包括盘古大模型在内的多种大模型服务,提供覆盖全生命周期的大模型工具链。
平台预置的Python解释器预置插件。 “Python解释器插件”能够执行用户输入的Python代码,并获取结果。此插件为应用提供了强大的计算、数据处理和分析功能,用户只需将其添加到应用中,即可扩展功能。 准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型
、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、审计和数据主权保护等机制。在训练和推理过程中,通过数据脱敏、隐私计算等技术手段识别并保护敏感数据,有效防止隐私泄露,保障个人隐私数据安全。 内容安全:通过预训练和强化学习价值观提示(prompt),构建正向
发布气象类数据集 开发盘古科学计算大模型 训练科学计算大模型 进行模型的训练,如预训练、微调等训练方式。 训练科学计算大模型 部署科学计算大模型 部署后的模型可进行调用操作。 部署科学计算大模型 调用科学计算大模型 支持“能力调测”功能与API两种方式调用大模型。 调用科学计算大模型 管理盘古大模型空间资产
通过云图说,带您了解华为云 OCR基础课程 介绍文字识别服务的产品、技术指导和使用指南 OCR系列介绍 文字识别服务在计算机视觉的重要性、基本技术和最新进展 智能客服 您好!我是有问必答知识渊博的的智能问答机器人,有问题欢迎随时求助哦! 社区求助 华为云社区是华为云用户的聚集地。这里有
API NLP大模型 科学计算大模型 Agent开发 Token计算器
独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 项目 华为云的区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认
的全部参数进行更新。这种方法通常会带来最优的模型性能,但需要大量的计算资源和时间,计算开销较高。 LoRA微调:在模型微调过程中,只对特定的层或模块的参数进行更新,而其余参数保持冻结状态。这种方法可以显著减少计算资源和时间消耗,同时在很多情况下,依然能够保持较好的模型性能。 基础模型
模型能力与规格 盘古NLP大模型能力与规格 盘古科学计算大模型能力与规格
WORKFLOW_STARTED,开始节点,表示开始调用模型进行会话。 MESSAGE,消息节点,表示工作流执行过程中流式返回的消息。 WORKFLOW_NODE_MESSAGE,节点调试信息,当debug开启时可以看到各个节点响应。 WORKFLOW_FINISHED,全量响应节点,表示最终模型回复的全量信息。
针对Token转换比,平台提供了Token计算器功能,可以根据您输入的文本计算Token数量,您可以通过以下方式使用该功能: 在左侧导航栏选择“能力调测”,单击右下角“Token计算器”使用该功能。 使用API调用Token计算器,详见《API参考》“API > Token计算器”。 NLP大模型训练类型选择建议