检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
RabbitMqConfig类说明 路径 com.roma.apic.livedata.config.v1.RabbitMqConfig 说明 与ConnectionConfig,QueueConfig,ExchangeConfig和RabbitMqProducer配合使用,对RabbitMQ客户端进行配置。
附录:spring-kafka对接限制 概述 spring-kafka兼容开源Kafka客户端,其与开源Kafka客户端的版本对应关系可参见Spring官网。spring-kafka兼容的Kafka客户端版本主要为2.x.x版本,而ROMA Connect消息集成的Kafka服务端版本为1
自定义数据源开发示例(定时任务) 操作场景 FDI当前支持接入MySQL类型数据库,但因为MySQL是最常用的数据库类型,可以方便开发者参照理解,故本章节以MySQL类型自定义连接器为例进行开发,示例使用Java语言进行开发,Demo代码参考MysqlConnctor.rar。 前提条件
修改VPC通道后端服务器组 功能介绍 更新指定VPC通道后端服务器组 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI PUT /v2/{project_id}/api
查询设备Topic列表 功能介绍 通过调用API查询Topic名称、Topic id、Topic权限、关于此Topic的说明等信息。 URI GET /v1/{project_id}/link/instances/{instance_id}/topics 表1 参数说明 参数 类型
创建规则引擎目的端 功能介绍 在ROMA Connect创建规则引擎目的端。 URI POST /v1/{project_id}/link/instances/{instance_id}/rules/destinations 表1 参数说明 名称 类型 是否必填 描述 project_id
API指标统计值查询-最近一段时间 功能介绍 根据API的ID和最近的一段时间查询API被调用的次数,统计周期为1分钟。查询范围一小时以内,一分钟一个样本,其样本值为一分钟内的累计值。 为了安全起见,在服务器上使用curl命令调用接口查询信息后,需要清理历史操作记录,包括但不限于“~/
自定义后端服务(V1) 查询后端API列表 创建后端API 查询后端API详情 修改后端API 删除后端API 查询后端API测试结果 查询后端API部署历史 部署后端API 测试后端API 撤销后端API 创建后端API脚本 父主题: 服务集成API(V1)
产品数字化作业流卡片 添加产品数字化作业流卡片 进入IPDCenter基础服务登录页面,输入账号和密码,单击“登录”。 在角色桌面首页,单击角色桌面页签上的,进入编辑状态。 单击“增加功能卡片”,在卡片列表的常用卡片区域选择“产品数字化作业流”卡片。 将“产品数字化作业流”卡片拖拽到角色桌面待添加区域。
添加产品主数据资产卡片 前提条件 已进入IPDCenter基础服务首页。 操作步骤 在角色桌面首页,选择待添加卡片的角色桌面页签,单击页签上的,进入编辑状态。 单击“添加功能卡片”,界面右侧显示的卡片列表。 在卡片列表的“专属卡片”区域,找到“产品主数据资产”卡片,将其拖拽到角色桌面待添加区域。
添加生命周期数据卡片 前提条件 已进入IPDCenter基础服务首页。 您已获取生命周期数据模板卡片的配置文件。 如未获取,请参考生命周期数据卡片配置进行配置。 使用须知 上传的配置文件仅支持json格式,文件大小不能超过1MB。 仅支持上传一个配置文件,如果上传后再次上传配置文件,会覆盖原有的配置文件。
产品Recipe建模 维护在生产工序中设备的参数信息。 系统支持模板分类、模板、模板的Recipe参数项、Recipe方案以及Recipe方案的参数项的扩展配置。 前提条件 已登录MBM Space,且拥有该菜单栏目的操作权限。 已维护Part定义。 已维护工厂建模。 已维护工序定义。
生产工具需求生成 支持生成生产工具需求、查询工单生产物料信息。 在“工单操作台”页面进行工单方案实例化成功后,系统自动生成一条生产工具需求记录。 “生产工具需求生成”页面支持手动生成生产工具需求。 前提条件 已登录MBM Space,且拥有该菜单栏目的操作权限。 已维护工单操作台。
pipeline应用准备 当前迁移路径是从ONNX模型转换到MindIR模型,再用MindSpore Lite做推理, 所以迁移前需要用户先准备好自己的ONNX pipeline。下文以官方开源的图生图的Stable Diffusion v1.5的onnx pipeline代码为例进行说明。
模型适配 MindSpore Lite是华为自研的推理引擎,能够最大化地利用昇腾芯片的性能。在使用MindSpore Lite进行离线推理时,需要先将模型转换为mindir模型,再利用MindSpore Lite作为推理引擎,将转换后的模型直接运行在昇腾设备上。模型转换需要使用converter_lite工具。
线下容器镜像构建及调试 镜像构建 导出conda环境 首先拉起线下的容器镜像: # run on terminal docker run -ti ${your_image:tag} 在容器中输入如下命令,得到pytorch.tar.gz: # run on container #
SD1.5&SDXL Koyha框架基于DevServer适配PyTorch NPU训练指导(6.3.908) 训练场景和方案介绍 准备镜像环境 Finetune训练 LoRA训练 父主题: AIGC模型训练推理
主流开源大模型基于DevServer适配ModelLink PyTorch NPU训练指导(6.3.907) 场景介绍 准备工作 预训练任务 SFT全参微调训练任务 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.908) 场景介绍 准备工作 执行微调训练任务 查看日志和性能 训练脚本说明 附录:微调训练常见问题 父主题: LLM大语言模型训练推理
预训练 前提条件 已上传训练代码、训练权重文件和数据集到OBS中,具体参考代码上传至OBS。 Step1 创建训练任务 创建训练作业,并自定义名称、描述等信息。选择自定义算法,启动方式自定义,以及选择上传的镜像。 代码目录选择:OBS桶路径下的llm_train/AscendSpeed代码目录。