检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在线服务预测报错ModelArts.4206 问题现象 在线服务部署完成且服务已经处于“运行中”的状态,向服务发起推理请求,报错“ModelArts.4206”。 原因分析 ModelArts.4206表示该API的请求流量超过了设定值。为了保证服务的平稳运行,ModelArts
查看预测外呼 前提条件 管理员已为指定座席人员建立预测外呼任务,并启动任务。 座席处于空闲态,预测外呼配有外呼数据且已经启动。 操作步骤 外呼业务代表进入云联络中心,输入账号、密码登录。 选择“外呼任务 > 座席外呼任务”。 图1 外呼任务 点击外呼结果,可查看外呼结果。 表1 预测外呼结果提示元素说明
分子属性预测 基于盘古药物分子大模型,预测化合物ADMET相关的80多种成药属性,有些属性的预测值会给出置信区间,更好地辅助分子设计。 单击“分子属性预测”功能卡片,进入配置页面。 图1 小分子配置页面 在配置页面输入分子信息,及配置相关参数。 输入方式:支持绘制分子、选择文件、手动输入。
在服务详情页,单击选择“预测”页签。 图4 上传预测图片 单击“上传”,选择一张需要预测的图片,单击“预测”,即可在右边的预测结果显示区查看您的预测结果。 图5 预测样例图 图6 查看预测结果 本案例中数据和算法生成的模型仅适用于教学模式,并不能应对复杂的预测场景。即生成的模型对预测图片有一定
各个模型深度学习训练加速框架的选择 LlamaFactory框架使用两种训练框架: DeepSpeed和Accelerate都是针对深度学习训练加速的工具,但是它们的实现方式和应用场景有所不同。 DeepSpeed是一种深度学习加速框架,主要针对大规模模型和大规模数据集的训练。D
作业名称,最大长度128 job_type String 作业类型。作业类型:SQL.联合SQL分析,HFL.横向联邦学习,VFL.纵向联邦学习,PREDICT.预测 creatorName String 创建人名称,最大值128 create_time String 创建时间。 hfl_type
在线服务预测报错ModelArts.4302 问题现象 在线服务部署完成且服务已经处于“运行中”的状态后,向运行的服务发起推理请求,报错ModelArts.4302。 原因分析及处理方法 服务预测报错ModelArts.4302有多种场景,以下主要介绍两种场景: "error_msg":
重保风险预测 使用场景 仅白名单用户可以使用重保风险预测。 操作步骤 登录管理控制台。 选择“服务列表 > 管理与监管 > 优化顾问”优化顾问服务页面。 左侧导航树选择“容量优化 > 重保风险预测”。 单击“风险分析”进行风险预测配置。 批量参数设置,选择活动时间段。 配置容量阈
发布预测类数据集 预测类数据集当前仅支持发布为“标准格式”,操作步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布 > 发布任务”,单击界面右上角“创建发布任务”。 在“创建发布任务”页面,选择数据集模态,如“预测
ModelArts在线服务预测时,如何提高预测速度? 部署在线服务时,您可以选择性能更好的“实例规格”提高预测速度。例如使用GPU资源代替CPU资源。 部署在线服务时,您可以增加“实例数”。 如果实例数设置为1,表示后台的计算模式是单机模式;如果实例数设置大于1,表示后台的计算模
大数据厂商B的数据集如下: 创建数据集后单击“发布”按钮即可将数据的元数据信息发布到tics空间侧,供其他合作方参考。 父主题: 使用TICS可信联邦学习进行联邦建模
在ModelArts自动学习中,如何进行增量训练? 在自动学习项目中,每训练一次,将自动产生一个训练版本。当前一次的训练结果不满意时(如对训练精度不满意),您可以适当增加高质量的数据,或者增减标签,然后再次进行训练。 增量训练目前仅支持“图像分类”、“物体检测”、“声音分类”类型的自动学习项目。
预测类数据集格式要求 平台支持创建预测类数据集,创建时可导入时序数据、回归分类数据。 时序数据:时序预测数据是一种按时间顺序排列的数据序列,用于预测未来事件或趋势,过去的数据会影响未来的预测。 回归分类数据:回归分类数据包含多种预测因子(特征),用于预测连续变量的值,与时序数据不
、模型数据。另一个用于存储数据集及数据集预测结果。 使用AI开发平台ModelArts,用于机器学习模型训练,预测故障分析结果。 使用函数工作流 FunctionGraph创建一个函数,进行数据处理并调用ModelArts在线服务获取预测结果,并存储至OBS桶。 在统一身份认证服务
管理批量推理作业 查看批量服务详情 查看批量服务的事件 管理批量服务生命周期 修改批量服务配置 父主题: 使用ModelArts Standard部署模型并推理预测
您也可以通过单击描述右侧的,对描述信息进行编辑。 从“输出数据目录位置”参数右侧获取详细OBS地址,前往此OBS目录,可以获取批量服务预测结果,包括预测结果文件和模型预测结果。 如果预测成功,目录下有预测结果文件和模型预测结果;如果预测失败,目录下只有预测结果文件。 预测结果文件:文件格式为“xxx
修改在线服务配置 在云监控平台查看在线服务性能指标 集成在线服务API至生产环境中应用 设置在线服务故障自动重启 父主题: 使用ModelArts Standard部署模型并推理预测
预测接口(排序) 功能介绍 线上预测接口。 URI POST 服务部署成功后返回的预测地址。 请求消息 请求参数请参见表1 请求参数说明。 表1 请求参数说明 参数名称 是否必选 参数类型 说明 rec_num 否 Integer 请求返回数量,默认返回50条。 user_id 是
声音分类:对环境中不同声音进行分类识别。 文本分类:识别一段文本的类别。 使用自动学习功能构建模型的端到端示例,请参见“快速入门>使用自动学习构建模型”。 自动学习流程介绍 使用ModelArts自动学习开发AI模型无需编写代码,您只需上传数据、创建项目、完成数据标注、发布训练、然后将训练的模型部
模型包结构介绍 模型配置文件编写说明 模型推理代码编写说明 自定义引擎创建模型规范 自定义脚本代码示例 父主题: 使用ModelArts Standard部署模型并推理预测